Linear Regression Cost 최소화 알고리즘 설명

Linear Regression의 Cost 최소화 알고리즘의 원리 설명

  1. 간단하게 변형된 Hypothesis 예시
    H(x) = Wx + 0 (b가 0인 경우)

    • W=1 일 때, cost(W) = ? , cost 값은 0이 된다.
    • W=0 일 때, cost(W) = 4.67
    • W=2 일 때, cost(W) = 4.67

    | x | Y | | :---: | :---: | | 1 | 1 | | 2 | 2 | | 3 | 3 |

  2. W 값의 변화에 따른 Cost(W)

  3. 우리의 목표는 Cost가 최소화되는 지점을 찾는 것이다. 이 목표를 위해 많이 사용되는 알고리즘으로 Gradient descent algorithm가 있다. (경사를 따라 내려가는 알고리즘이라는 뜻) 주어진 Cost를 최소화하는 데에 많이 사용된다. Cost를 최소화하는 W, b 또는 W가 여러 개인 경우 W1, W2, ..., b를 찾는데 사용할 수 있다.

  4. 어떻게 작동하는가?

results for ""

    No results matching ""