Linear Regression.
Hypothesis, Cost function, Gradient descent algorithm
Supervised learning을 하는 상황으로 가정할 때, 공부시간에 따른 0~100점 사이의 점수를 예측하는 상황
X(hours) | Y(score) |
---|---|
10 | 90 |
9 | 80 |
3 | 50 |
2 | 30 |
위와 같은 학습된 데이터를 가지고 어떤 학생이 7시간 공부하면 몇 점 나올지를 예측할 수 있습니다.
의외로 어떤 데이터들이 직선에 가깝게 나오는 경우가 많아서 가설(Hypothesis)을 통해 직선 식을 도출해낼 수 있습니다.
Linear Regression에서는 가설을 1차식으로 가정합니다.
H(x) = Wx + b
W와 b에 따라 선에 모양은 달라지는데 실제 값들과 차이가 적게 나는 가설이 예측율이 좋은 가설이라고 할 수 있다.
이 차이 측정하는 식을 Cost function 또는 Loss function 이라한다. 차이는 + 일수도 - 일수도 있기 때문에 제곱을 한다.
(H(x) - y)^2 이걸 하나하나 다 더하면 된다. (m = 데이터 개수)
여기서 Linear Regression의 숙제는 cost가 가장 작은 값을 갖게 하는 W와 b의 값을 구하는 것이다.