기초 노트/DataScience 12

Loss Function vs Cost Function vs Objective Function은 무슨 차이 인가요?

머신러닝, 딥러닝 관련 다양한 서적과 논문, 강의와 저널등에서 한국말로 "손실함수" 라는 표현에 대응 되는 영어 표현으로 왠지 줄여야만 할것 같은 녀석들, 'Loss function'과 'Cost function' 그리고 'objective function'이 등장한다. 도대체 이놈들의 차이는 뭐길래, 이름을 달리하여 쓰는걸까? ①Loss function : Loss function은 단일 데이터 포인트에 대한 모델의 오차를 측정하는 컨텍스트라고 보면 된다. 훈련 데이터로 예측한 값인 $\hat{y}$ 실제 $y$값간의 차이를 $Loss$라 하고 그 차이를 측정하는 방법인 Loss fuction으로 절댓값 손실, 제곱 손실 등이 있다. (위의 수식은 제곱 손실에 해당한다.) 일반적으로 회귀 문제(regr..

경사하강법 (gradient desecent) vs 뉴턴-랩슨 방법 (Newton–Raphson method)

Claim1) 뉴턴 랩슨의 방법은 두 번 미분하는 과정이 필요하다. 계산량이 많다. 경사 하강법이 더 일반적이다!? 수업시간에 들었던 이야기다. 경사하강법과 뉴턴-랩슨의 방법에 대한 정리와 함께 Claim1에 대한 이해와 해결을 해보려고 한다. 경사하강법(graident decent)와 뉴턴 랩슨의 방법(Newton-Raphson method)는 모두 기계학습의 Learning Rule에 해당하는 이야기 이다. 모델이 어떻게 파라미터를 최적화 시키도록 할것인가? 지시하는 Rule이라고 할 수 있겠다. 머신러닝의 가장 기본적인 모형인 선형회귀와 로지스틱회귀를 생각해보자. 선형회귀에서는 비용함수를 최소화 하는방법으로 기본적으로 (1)정규 방정식, (2)경사하강법을 사용하게 된다. 로지스틱회귀(Logistic..