03. How to minimize cost - Gradient descent
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 우리는 이전 포스트 02. Simple Linear Regression에서 cost에 대해 알아보았으며 02-2. Simple Linear Regression LAB에서 텐서플로우로 cost를 구현해보았습니다. 이번 포스트에서 우리는 cost를 최소화하는 알고리즘 중 하나인 Gradient descent(경사 하강법)에 대해 알아보겠습니다. 0.0. 들어가기에 앞서, 이번 포스트에서 우리는 기존의 H(x) = Wx + b에서 b를 0으로 고정하여 H(x) = Wx로 표현하겠습니다. 이는 단순히 변화의 추이를 보기 편..
2020.04.03