Linear Regression

Linear Regression.

Hypothesis, Cost function, Gradient descent algorithm

Supervised learning을 하는 상황으로 가정할 때, 공부시간에 따른 0~100점 사이의 점수를 예측하는 상황

X(hours) Y(score)
10 90
9 80
3 50
2 30

위와 같은 학습된 데이터를 가지고 어떤 학생이 7시간 공부하면 몇 점 나올지를 예측할 수 있습니다.

의외로 어떤 데이터들이 직선에 가깝게 나오는 경우가 많아서 가설(Hypothesis)을 통해 직선 식을 도출해낼 수 있습니다.

Linear Regression에서는 가설을 1차식으로 가정합니다.

H(x) = Wx + b

W와 b에 따라 선에 모양은 달라지는데 실제 값들과 차이가 적게 나는 가설이 예측율이 좋은 가설이라고 할 수 있다.

이 차이 측정하는 식을 Cost function 또는 Loss function 이라한다. 차이는 + 일수도 - 일수도 있기 때문에 제곱을 한다.

(H(x) - y)^2 이걸 하나하나 다 더하면 된다. (m = 데이터 개수)

여기서 Linear Regression의 숙제는 cost가 가장 작은 값을 갖게 하는 W와 b의 값을 구하는 것이다.

results for ""

    No results matching ""