머신러닝 & 딥러닝 #1_4 Gradient Descent
안녕하세요. 드디어 5일간 교육을 마쳤습니다. 시간적 여유가 생겼기에 계속해 교육내용을 간단히 정리하겠습니다. 저번 시간에 Machine Learning의 Machine은 Function이라고 했습니다. y = w*x + b 의 함수는 input(x)에 대한 output(y)을 예측한다는 뜻입니다. 예측값은 y_hat, 실제 값은 y로 나타내겠습니다. 그렇다면 y - y_hat = error(오차)입니다. 이렇게 실제값과 예측값의 차이를 비교하는 지표가 여럿 있습니다. Loss Function은 L(y, y_hat) = (y - y_hat)^2입니다. 제곱을 시켜주는 이유는 부호 문제, 후술 할 Gradien Descent에서의 미분가능성 문제를 해결할 수 있어서입니다. 실제 사용하는 지표는 Cost F..
2020.01.01