모두를 위한 딥러닝(21)
-
07-1. Learning rate, Feature scailing, Overfitting, and Regularization
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. · learning rate (학습 속도) 이전의 포스트들에서 우리는 다양한 모델에서 Gradient descent를 적용할 때 learning rate(학습 속도)를 설정하였고 이 과정을 텐서플로우에서 직접 구현도 해보았습니다. 이번 포스트에서는 먼저 learning rate가 너무 작거나 클 때의 문제를 다뤄보고, 적절한 learning rate를 설정하는 방법을 알아보겠습니다. 아래 그래프 1.1은 일반적인 비용 함수(cost function)의 한 예시입니다. 먼저 learning rate가 너무 작은 경우입..
2020.04.30 -
06-3. Fancy Softmax Classification LAB(2)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 우리는 저번 포스트에서 텐서플로우에서 Softmax classification 함수들을 구현해보았습니다. 이번 포스트에서는 동물의 특징들로 구성된 파일에서 데이터를 추출하여 이전 포스트와는 조금 다른 방법으로 softmax classification을 구현하는 방법을 알아보겠습니다. 따라서 이번 포스트에서 코드를 설명할 때는 저번 포스트와 비교하여 설명하고 같은 코드는 생략하겠습니다. 궁금하다면 06-2. Softmax classification LAB(1)을 참고해주시길 바랍니다. 아래는 코드 전문이며, 데이터 파..
2020.04.25 -
[공지] LAB 포스트 관련 공지사항
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 어른이 프로그래머입니다. 저번 포스트에서 배운 Softmax classification을 텐서플로우에서 구현해보기에 앞서 이전까지의, 그리고 앞으로의 LAB 포스트에 관한 공지를 먼저 말씀드리고자 글을 작성하게 되었습니다. "모두를 위한 딥러닝" 카테고리의 포스트는 모두 김성훈 교수님의 "모두를 위한 딥러닝" 강의를 정리한 내용을 담고 있습니다. 딥러닝을 처음 입문하는 제가 이해할 수 있는 수준으로 설명하기 위해 모두를 위한 딥러닝 시즌1, 모두를 위한 딥러닝 시즌2를 돌려보고, 모르는 내용들은 구글링이나 stack..
2020.04.22 -
06-2. Softmax Classification LAB(1)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 텐서플로우에서 Softmax Classification의 Hypothesis와 Cross-entropy, 그리고 Gradient descent를 구현해보고, Epoch에 따른 cost의 변화를 살펴보겠습니다. 전체적으로는 저번 포스트의 Logistic Regression의 코드와 유사하지만, 이번 포스트에서 주목할 점은 tf.argmax()를 통해 One-hot encoding을 구현하는 코드입니다. 사실 코드 1.1은 Logistic Regression LAB을 조금만 수정한 코드입니다. Logist..
2020.04.21 -
06-1. Softmax classification
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 저번 포스트에 이어 Softmax classification와 Cost function을 설계하는 과정에 대해 알아보겠습니다. 먼저 저번 포스트의 내용을 간략히 복습해보겠습니다. Multinomial classification(수식 1.1)은 W를 하나의 행렬(3 x 3)로 묶어 곱해 결괏값이 하나의 벡터(3 x 1 Ŷ벡터)로 나와 데이터를 처리하는 것이 편리하다는 장점이 있습니다. 다만 우리는 Sigmoid를 적용하는 적절한 방법을 이용해 Ŷ(A B C)를 일괄적으로 표현할 필요를 느꼈습니다. 따라서..
2020.04.19 -
06. Softmax classification - Multinomial classification
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 여러 개의 클래스가 있을 때 그것을 분류하는 Multinomial classification, 그중에서도 가장 많이 사용되는 Softmax classification에 대해 알아보겠습니다. 먼저 Multinomial classification에 대해 알아보겠습니다. 우리는 지난번 포스트에서 Logistic regression에 대해 배웠습니다. Logistic regression을 부르는 다른 이름은 binary classification으로, 데이터를 1과 0 두 그룹으로 나눌 때 사용되는 모델입니다..
2020.04.18