대외활동/DSC CV Study 12

week1 - 신경망 학습 (Loss Function, Gradient Descent)

신경망 학습 학습이란 훈련 데이터(Train Data)로부터 가중치 매개변수를 갱신하며 최적의 값을 찾는 것 입니다. 이렇게 최적의 값을 찾을 때에 사용하는 하나의 지표가 Loss Function(손실 함수) 입니다. Loss Function (손실함수) 손실함수는 신경망이 학습할 수 있도록 해주는 지표입니다. 정답과 출력값의 차이, 즉 오차를 말합니다. 이 손실함수 값(=오차)이 최소화되도록 하는 가중치와 편향을 찾습니다 (=학습합니다) 일반적으로는 MSE 혹은 Cross Entropy를 사용합니다. 평균 제곱 오차(Mean Squared Error : MSE) 계산이 간편하여 가장 많이 사용되는 손실 함수입니다. 거리가 음수로 나왔을 때 합산된 오차가 상쇄될 수 있기 때문에 각 거리 차이를 제곱하여 ..

week1 - 퍼셉트론, 인공신경망

퍼셉트론 퍼셉트론은 프랑크 로젠블라트가 처음 고안한 알고리즘입니다. 이는 신경망과 딥러닝으로 나아가는 데 중요한 역할을 합니다. 퍼셉트론은 "다수 입력 - 단일 출력"의 형태입니다. 여러개의 신호가 입력되면 하나의 신호가 출력됩니다. 입력값(x)에 가중치(w)를 곱하여 모두 합하면 출력값이 됩니다. x1*w1+x2*w2+x3*w3 +b 0 이면 y=1 b(bias)는 편향을 나타내는 매개변수이고 활성화를 제어합니다. w(weight)는 가중치를 나타내고 각 입력값의 영향력을 제어합니다. 인공신경망 동그라미 = 노드 회색 선 = 가중치 인공신경망은 다음과 같이 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 되어있습니다. 위 그림에서는 2개의 입력과 2..