목차 1. Multi-variable Linear Regression 2. Hypothesis Using Matrix 1. Multi-variable Linear Regression(다중 선형 회귀) 우리가 지금까지 배웠던 Linear Regression은 변수 X가 한 개, 변수 Y가 한 개 있는 Regression이었다. 하지만 실제로 사용할 데이터에서는 위 사진의 데이터와 같이 변수 X가 여러 개인 경우가 많다. 이럴 때 사용하는 Regression을 Multi-variable Linear Regression(다중 선형 회귀)이라고 한다. 명칭 그대로 독립 변수가 여러 개 일 때 Y를 예측하는 것을 말한다. 2. Hypothesis Using Matrix Multi-variable Linear Re..
목차 1. Gradient Descent Algorithm 2. Convex Function 1. Gradient Descent Algorithm(경사 하강 알고리즘) Linear Regression의 목표는 Cost를 최소화하는 Weight, bias를 찾는 것이다. cost를 최소화하는 방법으로는 보통 Gradient Descent Algorithm(경사 하강 알고리즘)을 사용한다. 이는 (0, 0) 원점 또는 어떤 값에서 시작하여 Weight나 bias를 조금씩 바꿔가면서 Cost를 줄이고 경사도를 계산하는 과정을 계속 반복하여 Cost의 최솟값을 가지는 Weight와 bias의 값을 찾는 방법이다. 경사도는 미분을 이용하여 계산할 수 있다. 미분을 쉽게 하기 위해서 Cost Function의 분모..
목차 1. Regression 2. Hypothesis 3. Cost Function 4. Minimize Cost 1. Regression 그림을 살펴보며 이해해 보자. 간단한 데이터를 왼쪽에 준비했다. 여기서 x는 feature라고도 하는 예측하기 위한 기본적인 자료, y는 예측해야 할 대상이다. 이 데이터를 간단하게 그래프에 그려보면 오른쪽 그림과 같다. 2. Hypothesis Regression 모델을 학습할 때는 하나의 가설을 세울 필요가 있다. 이때 'Linear 한 모델이 우리가 가지고 있는 데이터에 적합할 것이다.'라고 가설을 세우는 것이 Linear Regression이다. 다르게 말해서 데이터가 주어졌을 때 그 데이터에 맞는 Linear 한 선을 찾는 것이라고 설명할 수 있다. 위의 ..
목차 1. 머신러닝 2. 비지도 학습 vs 지도학습 3. 지도 학습의 유형 4. Tensorflow 5. Data Flow Graph 6. Tensor Rank, Shape, Type 1. Machine Learing(머신러닝) 쉽게 말해서 개발자가 일일이 프로그래밍하지 않고 자체적으로 데이터를 학습한 후 적용하는 프로그램을 기계학습이라고 한다. 1959년, 아서 사무엘은 기계가 일일이 코드로 명시하지 않은 동작을 데이터로부터 학습하여 실행할 수 있도록 하는 알고리즘을 개발하는 연구 분야라고 정의했다. 2. Unsupervised Learning(비지도 학습) vs Supervised Learning(지도 학습) 머신러닝을 학습 방식에 따라 Unsupervised Learning(비지도 학습), Supe..