반응형

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Learning Rate이

 

 

 

 

 

 

2. gradient descent로 선형 회귀 구현

Cost function J(세타0, 세타1) 을 함수로 보고, Cost function이 최소화 될 때까지 학습시킨다.

[ 세타0 = 세타0 - 알파 x cost function 미분한 것 ]

[ 세타1 = 세타1 - 알파 x cost function 미분한 것 ]

즉, 세타0와 세타1을 계속해서 업데이트해서 cost function이 최소화 되었을 때 세타0, 세타1 값을 반환한다.

 

 

 

중요한 것은 업데이트가 simultaneously 이루어진다는 것 !!

w0와 w1은 동시다발적으로 업데이트된다.

 

 

 코드


 

 

 

 

 

파라미터 x 하이퍼파라미터 o

 

 

 

 

 

 

 

반응형

'AI > Machine Learning' 카테고리의 다른 글

Stochastic Gradient Descent  (0) 2021.01.26
Holdout method  (0) 2021.01.26
하이퍼 파라미터란?  (0) 2021.01.26
normal equation  (0) 2021.01.25
Linear Regression  (0) 2021.01.25

+ Recent posts