Linear Regression의 Cost 최소화 알고리즘의 원리 설명
간단하게 변형된 Hypothesis 예시
H(x) = Wx + 0 (b가 0인 경우)
| x | Y | | :---: | :---: | | 1 | 1 | | 2 | 2 | | 3 | 3 |
W 값의 변화에 따른 Cost(W)
우리의 목표는 Cost가 최소화되는 지점을 찾는 것이다. 이 목표를 위해 많이 사용되는 알고리즘으로 Gradient descent algorithm가 있다. (경사를 따라 내려가는 알고리즘이라는 뜻) 주어진 Cost를 최소화하는 데에 많이 사용된다. Cost를 최소화하는 W, b 또는 W가 여러 개인 경우 W1, W2, ..., b를 찾는데 사용할 수 있다.
어떻게 작동하는가?