03-1. How to minimize cost - Gradient descent LAB
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서는 Gradient descent를 텐서플로우 코드로 어떻게 구현하는지를 알아보겠습니다. 구현에 앞서 Gradient descent 식을 보며 순서를 정하겠습니다. 1. 먼저 α값을 정합니다. α는 learning rate(학습 속도)로 보통 0.001, 0.00001 등의 작은 값을 사용하지만, 이번에는 값의 변화를 조금 더 빨리 보기 위해 0.01로 정하겠습니다. 2. W에 대해 cost(W)를 편미분한 식을 구현하겠습니다. 텐서플로우의 평균을 구해주는 reduce_mean() 메서드와 곱 연산을 ..
2020.04.04