모두를 위한 딥러닝(21)
-
05-2. Logistic Regression(3) - Logistic Regression LAB
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서 우리는 05 Logistic Regression(1)과 05-1 Logistic Regression(2)에서 배운 내용들을 텐서플로우에서 구현해보며 복습해보겠습니다. 먼저 아래의 그래프 1.1을 보겠습니다. 그래프 1.1은 코드 1.1의 Training data set (x_train)의 좌표를 점으로 표현한 그래프입니다. y_train의 0에 대칭되는 x_train의 [1, 2], [2, 3], [3, 1]은 ●으로, y_train의 1에 대칭되는 x_train의 [4, 3], [5, 3], [6,..
2020.04.17 -
05-1. Logistic Regression(2)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트는 저번 포스트에 이어 Logistic regression(로지스틱 회귀)의 cost function(비용 함수)과 optimizer - Gradient descent(경사 하강법)에 대해 알아보겠습니다. Logistic regression의 cost function에 대해 알아보겠습니다. 먼저 아래 그림을 보겠습니다. 로지스틱 회귀에서는 데이터를 분류해주는 적절한 Hypothesis가 필요합니다. 왼쪽의 두 직선은 데이터를 잘 분류하지는 못하는 것으로 보이는 반면 오른쪽의 직선은 데이터 ■과 ▲을 분류해..
2020.04.13 -
05. Logistic Regression(1)
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서는 데이터 분류 기법 중 하나인 Logistic Regression(로지스틱 회귀)에 대해 알아보겠습니다. 먼저 Logistic Regression의 기본이 되는 Classification(분류)에 대해 알아보겠습니다. ·Classification (분류) 분류는 이진 분류(Binary classification)와 다중 분류(Multi-class classification)로 나뉩니다. 이진 분류(Binary classification)는 시험의 Pass/Fail, 스팸메일인지 스팸메일이 아닌지(Sp..
2020.04.10 -
04. Multi-variable Linear Regression
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서는 Multi-variable Linear Regreesion(다변수 선형 회귀)에 대해 알아보겠습니다. · Multi-variable Linear Regression(다변수 선형 회귀) 이제까지 우리는 변수가 하나인 경우에서만 H(x)를 정의했습니다. 쉽게 말하면 결괏값에 영향을 미치는 요소가 하나라는 말인데, 현실에서는 그렇지 않은 경우가 훨씬 많습니다. 이처럼 결괏값(y)에 영향을 미치는 변수(x)가 둘 이상일 때 Linear Regreesion을 구하는 것을 우리는 Multi-variable L..
2020.04.05 -
03-1. How to minimize cost - Gradient descent LAB
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 이번 포스트에서는 Gradient descent를 텐서플로우 코드로 어떻게 구현하는지를 알아보겠습니다. 구현에 앞서 Gradient descent 식을 보며 순서를 정하겠습니다. 1. 먼저 α값을 정합니다. α는 learning rate(학습 속도)로 보통 0.001, 0.00001 등의 작은 값을 사용하지만, 이번에는 값의 변화를 조금 더 빨리 보기 위해 0.01로 정하겠습니다. 2. W에 대해 cost(W)를 편미분한 식을 구현하겠습니다. 텐서플로우의 평균을 구해주는 reduce_mean() 메서드와 곱 연산을 ..
2020.04.04 -
03. How to minimize cost - Gradient descent
이 포스트는 모두를 위한 딥러닝 - Tensor Flow를 정리한 내용을 담았습니다. 누구나 이해할 수 있는 수준으로 설명하고자 하였으며 LAB의 코드는 TF2.0에 맞추어 재작성되었습니다. 우리는 이전 포스트 02. Simple Linear Regression에서 cost에 대해 알아보았으며 02-2. Simple Linear Regression LAB에서 텐서플로우로 cost를 구현해보았습니다. 이번 포스트에서 우리는 cost를 최소화하는 알고리즘 중 하나인 Gradient descent(경사 하강법)에 대해 알아보겠습니다. 0.0. 들어가기에 앞서, 이번 포스트에서 우리는 기존의 H(x) = Wx + b에서 b를 0으로 고정하여 H(x) = Wx로 표현하겠습니다. 이는 단순히 변화의 추이를 보기 편..
2020.04.03