본문 바로가기
728x90

신경망5

[AI 수학] 인공지능 수학 - 5. 고유값과 고유 벡터, 고윳값 분해 인공지능을 위한 기초수학 교재를 통해 공부한 내용을 서술하였습니다.고윳값, 고유벡터, 고윳값 분해 📌 행렬의 선형 변환이란?더보기행렬 A는 벡터에 작용하는 선형 변환입니다.즉, 어떤 벡터 $v$에 행렬 A를 곱하면 새로운 벡터가 됩니다: $$Av$$ ➡️ 예를 들어, A가 다음과 같은 $2 \times 2$ 행렬이라고 해볼게요.$$ A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \\ \end{bmatrix}$$벡터 $\begin{bmatrix} x \\ y \end{bmatrix}$에 대해 행렬 A의 변환은: $$ Av = \begin{bmatrix} 2 & 1 \\ 1 & 2 \\ \end{bmatrix}\begin{bmatrix} x \\ y \end{bmatrix} = \begin.. 2025. 3. 17.
[DL] 오토인코더(Auto-Encoder)와 종류 Auto-Encoder정답이 없는 비지도 학습입력과 출력의 크기가 같으며, 중간으로 갈 수록 차원이 줄어드는 형태1. Auto-Encoder의 구조입력이 들어왔을 때, 그 입력 데이터를 최대한 압축시킨 후에 특징을 추출하여 다시 본래의 입력 형태로 복원시킴   데이터를 압축하는 부분을 Encoder 복원하는 부분을 Decoder압축 과정에서 추출한 의미 있는 데이터 Z를 latent vector  손실함수는 입력과 재구성(출력)의 차이를 가지고 계산즉, x를 얼마나 복원하였는지가 중요  2. 비지도 학습의 Auto-Encoder데이터 그 자체에 숨겨져 있는 패턴을 발견하는 것이 목표 Auto Encoder가 출력하는 latent vector를 미리 알 수 없음모델이 알아서 latent vector를 찾.. 2025. 2. 6.
[파이토치] 파이토치로 Convolution 이해하기, torch.nn/nn.Conv1d/nn.Conv2d torch.nntorch.nn은 PyTorch의 핵심 모듈 중 하나로, 신경망 모델을 정의하고 구성하기 위한 다양한 클래스와 함수를 제공import torch.nn as nnnn.Conv1d파이토치에서 1차원 컨볼루션 레이어를 정의하는 클래스 1차원 컨볼루션은 입력 데이터의 한 방향(주로 시계열 데이터에서는 시간 축)으로 컨볼루션 연산을 수행 2차원 컨볼루션이 가로, 세로로 모두 이동하면서 계산되는 것과 다르게 1차원 컨볼루션 연산은 가로로만 이동nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros') in_channels: 입력 데이터의.. 2024. 12. 18.
[DL] 순환 신경망(Recurrent Neural Network, RNN) RNN입력과 출력을 시퀀스 단위로 처리하는 시퀀스 모델 피드 포워드 신경망과 달리, 결과값을 출력층 방향으로 보내면서도 다시 은닉층 노드의 다음 계산의 입력으로 보냄 은닉층의 메모리 셀(은닉층에서 활성화 함수를 통해 결과를 내보내는 역할)은 각각의 시점(time step)에서 바로 이전 시점에서의 은닉층의 메모리 셀에서 나온 값을 자신의 입력으로 사용하는 재귀적 활동을 함현재 시점 t에서의 메모리 셀이 갖고있는 값은 과거의 메모리 셀들의 값에 영향을 받은 것임을 의미 은닉 상태(hidden state)메모리 셀이 출력층 방향으로 또는 다음 시점 t+1의 자신에게 보내는 값을 은닉 상태(hidden state)라고 함   RNN은 입력과 출력의 길이를 다르게 설계 할 수 있으므로 다양한 용도로 사용 가능 .. 2024. 12. 10.
[DL] 다층 퍼셉트론 (Multi-layer Perceptron, MLP)이란? 다층 퍼셉트론이란?MLP는 단층 퍼셉트론에 은닉층(hidden layer)이 추가된 것 은닉층이 2개 이상이 되면 심층 신경망(Deep Neural Network, DNN)이라고 함   위의 그림은 AND, NAND, OR 게이트를 조합하여 XOR 게이트를 구현한 다층 퍼셉트론의 예 입력층의 두 뉴런이 입력 신호를 받아 은닉층의 뉴런으로 신호를 보낸다.은닉층의 뉴런은 출력층의 뉴런으로 신호를 보내고, 출력층은 y를 출력한다.  이전 글에서 활성화 함수를 통해 각 노드의 활성 여부를 판단한다고 언급함 변수 z는 이전층의 모든 입력이 각각의 가중치와 곱해진 값들이 모두 더해진 가중합을 의미즉, 아직 활성화 함수를 거치지 않은 값 $z$ 우측의 |를 지나서 존재하는 변수 h 또는 o는 z가 시그모이드 함수를 .. 2024. 12. 2.
728x90