728x90 전체49 [DL] 퍼셉트론(Perceptron)이란? 퍼셉트론이란?퍼셉트론은 프랑크 로젠블라트가 1957년에 고안한 알고리즘신경망(딥러닝)의 기원이 되는 알고리즘실제 뇌를 구성하는 신경 세포 뉴런의 동작과 유사퍼셉트론은 다수의 신호를 입력으로 받아 하나의 신호를 출력 퍼셉트론은 전류가 전선을 타고 전자를 내보내듯 퍼셉트론도 신호도 흐름을 만들고 정보를 앞으로 전달 다만, 실제 전류와 달리 퍼셉트론 신호는 '흐른다/안 흐른다(1이나 0)'의 두가지 값을 가짐 그림 2-1은 입력으로 2개의 신호를 받은 퍼셉트론의 예 $x_1$과 $x_2$는 입력 신호, $y$는 출력 신호, $w_1$과 $w_2$는 가중치를 표현 그림의 원은 '뉴런' 혹은 '노드'라고 부름 입력 신호가 뉴런에 보내질 때는 각각 고유한 가중치가 곱해짐가중치는 각 신호가 결과에 주는 영향력.. 2024. 12. 2. [ML] 의사 결정 나무 (Decision Tree), Entropy/Impurity decision tree(의사결정나무)순차적으로 질문을 던져서 답을 고르게 하는 방식으로 의사결정을 하는 머신러닝 모델 한번의 분기 때마다 변수 영역을 두 개로 구분결정 트리에서 질문이나 정답을 담은 네모 상자를 노드(Node)라고 함맨 처음 분류 기준 (즉, 첫 질문)을 Root Node라고 함맨 마지막 노드는 Terminal Node 혹은 Leaf Node 특징분류, 회귀 모두 가능한 지도학습 모델 결정 트리의 Leaf Node가 가장 섞이지 않은 상태로 완전히 분류되는 것, 즉 복잡성(Entropy)이 낮도록 만들어야 함 주로 f1-score를 통해 평가 그렇다면, 위에서 가지를 어떤 기준으로 뻗어나갈지 그 기준을 어떻게 정하는 것일까? 1. 데이터를 가장 잘 구분할 수 있는 질문을 기준으로 나눔.. 2024. 11. 21. [ML] 나이브 베이즈 (Naive Bayes) 나이브 베이즈 분류기는 인공 신경망 알고리즘에는 속하지 않지만, 머신 러닝의 주요 알고리즘으로 분류에 있어 준수한 성능을 보여주는 것으로 알려져 있습니다. 나이브 베이즈 분류기는 베이즈 정리를 사용하여 주어진 데이터를 특정 클래스에 속할 확률을 계산하고, 가장 높은 확률을 가진 클래스를 선택하는 방식으로 동작 이때, 모든 특성(feature)이 서로 독립적이라고 가정 각 클래스의 사전 확률 $P(C)$를 계산합니다.각 특성별로 조건부 확률 $P(x_i|C)$를 계산합니다.테스트 데이터의 모든 특성에 대해 조건부 확률을 곱하여 $P(x|C)$를 구합니다.$P(x|C)$와 $P(C)$를 곱하여 사후 확률 $P(C|x)$를 구합니다.가장 높은 확률을 가진 클래스를 선택합니다. Bayes' theorem 베.. 2024. 11. 20. [ML] 머신러닝 평가지표, Confusion Matrix/Accuracy/MSE.. 모델 성능 평가란?실제값과 모델이 예측한 값의 오차가 얼마나 작은지 평가하는 것 성능 평가는 실제값이 있어야 평가할 수 있어 지도학습에서 사용 머신러닝의 지도학습은 아래와 같이 나뉨분류회귀 예측하려는 Target이 범주형 데이터이면 분류,수치형 데이터라면 회귀 문제. ➡️ 분류냐, 회귀냐에 따라 평가지표가 달라짐분류, Classification정확도(accuracy) 정확도는 모델의 예측이 얼마나 정확한지를 의미 계산 방법 : (예측 결과가 동일한 데이터 개수)/(전체 예측 데이터 개수) 라벨 불균형인 데이터에서는 사용하면 안됨 오차 행렬 (Confusion Matrix) 오차 행렬은 모델이 예측을 하면서 얼마나 헷갈리고 있는지를 보여주는 지표 주로 이진 분류에서 많이 사용참고로 정확도는 (TN + T.. 2024. 11. 20. [ML] 소프트맥스 회귀 (Softmax Regression) 이전에 2개의 선택지에서 1개를 고르는 이진분류를 로지스틱 회귀로 풀어봄 로지스틱 회귀에서 시그모이드 함수는 예측값을 0과 1 사이의 값으로 표현이번에는 소프트맥스 회귀를 통해 다중 클래스 분류를 설명소프트맥스 회귀 확률의 총 합이 1이 되는 이 아이디어를 다중 클래스 분류 문제에 적용 소프트맥스 회귀는 각 클래스. 즉, 각 선택지마다 소수 확률을 할당. 이때 총 확률의 합은 1이렇게 되면 각 선택지가 정답일 확률로 표현됨 결국 소프트맥스 회귀는 선택지의 개수만큼의 차원을 가지는 벡터를 만들고, 해당 벡터가 벡터의 모든 원소의 합이 1이 되도록 원소들의 값을 변환시키는 어떤 함수를 지나게 만들어야 함그 함수를 Softmax라고 함 H(X) = Softmax(WX + B) Softmax소프트맥스 함수는.. 2024. 11. 20. [ML] 원핫인코딩(One-Hot Encoding) 원-핫 인코딩(One-hot encoding)이란?원-핫 인코딩은 선택해야하는 선택지의 개수만큼의 차원을 가지면서, 각 선택지의 인덱스에 해당하는 원소에 1, 나머지 원소는 0의 값을 가지게 함 원-핫 인코딩으로 표현된 벡터를 원-핫 벡터(one-hot vector)라고 함 보통 다중 클래스 분류 문제에는 각 클래스 간의 관계가 균등하다는 점에서 원-핫 벡터를 많이 사용 다수의 클래스를 분류하는 문제에서는 이진 분류처럼 2개의 숫자 레이블이 아니라 클래스의 개수만큼 숫자 레이블이 필요하기 때문에 비효율적 Referenceshttps://wikidocs.net/59678 2024. 11. 20. 이전 1 ··· 3 4 5 6 7 8 9 다음 728x90