본문 바로가기
728x90

전체49

[AI 수학] 인공지능 수학 - 4. 기저와 차원, 벡터 공간 인공지능을 위한 기초수학 교재를 통해 공부한 내용을 서술하였습니다.기저와 차원 벡터 공간, Vector Space 일정한 조건을 만족하는 벡터들의 집합모든 벡터 u와 v에 대해, u+v도 벡터 공간에 속해야 합니다.모든 스칼라 c와 벡터 v에 대해, cv도 벡터 공간에 속해야 합니다.0+v=v가 모든 벡터 v에 대해 성립해야 합니다.모든 벡터 v에 대해, v와 더해져서 영벡터가 되는 벡터 −v가 존재해야 합니다.기저, Basis일정한 조건을 만족하는 해당 벡터 공간을 생성하는데 필요한 "기초" 벡터들의 집합선형 독립 : 어떤 기저 벡터도 다른 기저 벡터의 선형 조합으로 표현되지 않아야 함.생성 가능 : 기저 벡터들의 선형 조합으로 벡터 공간 V의 모든 벡터를 생성할 수 있어야 함.표준 기저 : 좌표 공간.. 2025. 2. 11.
[AI 수학] 인공지능 수학 - 3. 선형변환 인공지능을 위한 기초수학 교재를 통해 공부한 내용을 서술하였습니다.선형 변환, Linear TransformationsPreliminaries변환입력과 출력이 모두 벡터인 함수선형 관계란?두 개 이상의 변수 사이에서 일정한 패턴이나 규칙에 따라 형성되는 관계변수들 간에 직선의 형태로 표현될 수 있는 관계선형 관계의 특징비례 관계 : 하나의 변수가 증가하면, 다른 변수도 일정한 비율로 증가하거나 감소직선 관계 : 그래프 상에서 직선의 형태로 표현상수 비율 : 두 변수 사이의 관계를 나타내는 상수 비율이 존재 $\to$ 기울기, gradient라고 함 선형 변환이란?$T(x) = Ax$ $\mathbb{R}^n$에서 $\mathbb{R}^m$으로의 변환 $T: \mathbb{R}^n \to \mathbb{R.. 2025. 2. 11.
[AI 수학] 인공지능 수학 - 2. 행렬의 연산과 종류/행렬식 인공지능을 위한 기초수학 교재를 통해 공부한 내용을 서술하였습니다.행렬, Matrix행렬에 대해 자세한 설명은 패스 여러 행렬들영행렬 zero matrix성분이 모두 0인 행렬로 $O$로 나타냄단위행렬 identity matrix주대각선 성분이 모두 1이고 나머지 성분은 모두 0인 n차의 정사각형 행렬, $I$로 나타냄정방행렬 square matrix열과 행의 길이가 같은 정사각 행렬 가역행렬 invertible matrix어떤 행렬A와 곱한 결과가 단위행렬이 되는 행렬 B가 존재하는 행렬$AB = I = BA$ 역행렬 inverse matrix가역행렬 A의 상대 행렬 B$A^{-1}$ 대각선행렬 diagonal matrix주대각선 성분 이외의 모든 성분이 0인 정사각행렬 주대각선 성분이 모두 같다면 스.. 2025. 2. 7.
[AI 수학] 인공지능 수학 - 1. 벡터/내적/코사인유사도/정사영 인공지능을 위한 기초수학 교재를 통해 공부한 내용을 서술하였습니다.  Vector, 벡터Scalar : 크기만 주어지지만, 완전히 표시되는 양Vector : 크기뿐만 아니라 방향까지 지정하지 않으면 완전히 표현할 수 없는 양 2차원, 3차원 공간의 벡터는 화살표로 표현 가능 영벡터 : 시작점(A)과 끝점(B)이 같아서 크기가 0인 벡터 크기와 방향이 같은 벡터는 모두 같은 벡터시작점을 원점으로 고정한다면 그 벡터는 끝점의 좌표로 유일하게 나타낼 수 있음 왼쪽 : $ \vec{OA}= a = (a_1, a_2)$오른쪽 : $ \vec{OA}= a = (a_1, a_2, a_3)$ 여기서 $a_1, a_2, a_3$는 element라고 함 벡터의 정의n차원 벡터n개의 실수의 순서조 $(x_1, x_2, .... 2025. 2. 6.
[DL] 오토인코더(Auto-Encoder)와 종류 Auto-Encoder정답이 없는 비지도 학습입력과 출력의 크기가 같으며, 중간으로 갈 수록 차원이 줄어드는 형태1. Auto-Encoder의 구조입력이 들어왔을 때, 그 입력 데이터를 최대한 압축시킨 후에 특징을 추출하여 다시 본래의 입력 형태로 복원시킴   데이터를 압축하는 부분을 Encoder 복원하는 부분을 Decoder압축 과정에서 추출한 의미 있는 데이터 Z를 latent vector  손실함수는 입력과 재구성(출력)의 차이를 가지고 계산즉, x를 얼마나 복원하였는지가 중요  2. 비지도 학습의 Auto-Encoder데이터 그 자체에 숨겨져 있는 패턴을 발견하는 것이 목표 Auto Encoder가 출력하는 latent vector를 미리 알 수 없음모델이 알아서 latent vector를 찾.. 2025. 2. 6.
[DL] 다양한 Convolution 알아보기, Depthwise/Pointwise/Separable/Grouped/Deformable 등등 다양한 Convolution 다양한 종류의 Convolution은 딥러닝 모델 경량화에 주로 쓰인다고 함 왜 그렇냐?? 기존 2차원 컨볼루션의 문제점 연산량이 크다.input 채널 수 X width X height X 필터 개수 X (필터 크기) $^2$ Dead Channels필터(커널)가 특정 입력 패턴에만 반응하게 되면, 일부 필터는 죽은 채널 (Dead Channels)이 되어버림 Low Correlation between Channels 각 채널이 독립적으로 특징을 학습하지만, 이로 인해 채널 간 정보가 제대로 공유되지 않는 문제가 발생따라서, 훨씬 효율적인 방법으로 딥러닝을 사용할 수 있는 다양한 Convolution이 나오게 되었음Dilated Convolution  컨볼루션 필터(커널)에서.. 2025. 2. 6.
728x90