[lec04] Multi-variable linear regression
2020. 1. 15.
-본 포스트는 홍콩 과학기술대학교의 김성훈 교수님의 모두를 위한 딥러닝 강의영상을 정리하기 위해 쓰여졌습니다.- (https://www.youtube.com/watch?v=kPxpJY6fRkY&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=8) [Recaprecapitulation(개요, 요점)] Hypothesis(최적화 모델) W = Weight(가중치) b = bias(편향) $\mathit{H(x)=Wx+b}$ Cost Function(비용 함수) 예측값(측정값)과 실제 값 차이의 평균 $\mathit{cost(W, b) = \frac{1}{m}\sum_{i=1}^{m}(x^{(i)}-y^{(i)})^2}$ Gradient Descent Algorithm ---..