AI/모두를 위한 딥러닝(33)
-
06-2. Softmax Classification LAB(1)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 텐서플로우에서 Softmax Classification의 Hypothesis와 Cross-entropy, 그리고 Gradient descent를 구현해보고, Epoch에 따른 cost의 변화를 살펴보겠습니다. 전체적으로는 저번 포스트의 Logistic Regression의 코드와 유사하지만, 이번 포스트에서 주목할 점은 tf.argmax()를 통해 One-hot encoding을 구현하는 코드입니다. 사실 코드 1.1은 Logistic Regression LAB을 조금만 수정한 코드입니다. Logist..
2020.04.21 -
06-1. Softmax classification
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 저번 포스트에 이어 Softmax classification와 Cost function을 설계하는 과정에 대해 알아보겠습니다. 먼저 저번 포스트의 내용을 간략히 복습해보겠습니다. Multinomial classification(수식 1.1)은 W를 하나의 행렬(3 x 3)로 묶어 곱해 결괏값이 하나의 벡터(3 x 1 Ŷ벡터)로 나와 데이터를 처리하는 것이 편리하다는 장점이 있습니다. 다만 우리는 Sigmoid를 적용하는 적절한 방법을 이용해 Ŷ(A B C)를 일괄적으로 표현할 필요를 느꼈습니다. 따라서..
2020.04.19 -
06. Softmax classification - Multinomial classification
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 여러 개의 클래스가 있을 때 그것을 분류하는 Multinomial classification, 그중에서도 가장 많이 사용되는 Softmax classification에 대해 알아보겠습니다. 먼저 Multinomial classification에 대해 알아보겠습니다. 우리는 지난번 포스트에서 Logistic regression에 대해 배웠습니다. Logistic regression을 부르는 다른 이름은 binary classification으로, 데이터를 1과 0 두 그룹으로 나눌 때 사용되는 모델입니다..
2020.04.18 -
05-2. Logistic Regression(3) - Logistic Regression LAB
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서 우리는 05 Logistic Regression(1)과 05-1 Logistic Regression(2)에서 배운 내용들을 텐서플로우에서 구현해보며 복습해보겠습니다. 먼저 아래의 그래프 1.1을 보겠습니다. 그래프 1.1은 코드 1.1의 Training data set (x_train)의 좌표를 점으로 표현한 그래프입니다. y_train의 0에 대칭되는 x_train의 [1, 2], [2, 3], [3, 1]은 ●으로, y_train의 1에 대칭되는 x_train의 [4, 3], [5, 3], [6,..
2020.04.17 -
05-1. Logistic Regression(2)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 저번 포스트에 이어 Logistic regression(로지스틱 회귀)의 cost function(비용 함수)과 optimizer - Gradient descent(경사 하강법)에 대해 알아보겠습니다. Logistic regression의 cost function에 대해 알아보겠습니다. 먼저 아래 그림을 보겠습니다. 로지스틱 회귀에서는 데이터를 분류해주는 적절한 Hypothesis가 필요합니다. 왼쪽의 두 직선은 데이터를 잘 분류하지는 못하는 것으로 보이는 반면 오른쪽의 직선은 데이터 ■과 ▲을 분류해..
2020.04.13 -
05. Logistic Regression(1)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서는 데이터 분류 기법 중 하나인 Logistic Regression(로지스틱 회귀)에 대해 알아보겠습니다. 먼저 Logistic Regression의 기본이 되는 Classification(분류)에 대해 알아보겠습니다. ·Classification (분류) 분류는 이진 분류(Binary classification)와 다중 분류(Multi-class classification)로 나뉩니다. 이진 분류(Binary classification)는 시험의 Pass/Fail, 스팸메일인지 스팸메일이 아닌지(Sp..
2020.04.10