본 내용은 Coursera에서 Andrew ng 의 Machine Learning(기계학습, 머신러닝)을 수강한 내용을 정리한 것입니다. 이번 장에서는 Neural Networks(뉴럴 네트워크, 신경망)에 대해서 알아보도록 하겠습니다. 1. Non-linear Hypothesis[ Non-linear Classification ] 위와 같은 Classification 문제를 해결하기 위해서는 Non-linear Decision Boundary가 필요합니다. 물론 Logistic Regression을 이용해서 이 경계를 만들 수 있지만, Logistic Regression은 Feature의 개수가 많아질수록 식을 위해 필요한 1, 2, 3, .... n차원의 항이 기하급수적으로 늘어날 뿐만 아니라 Ove..
본 내용은 Coursera에서 Andrew ng 의 Machine Learning(기계학습, 머신러닝)을 수강한 내용을 정리한 것입니다. 이번 장에서는 Overfitting(과적합)문제와 이를 해결하기 위한 Regularization(정규화)에 대해서 알아보도록 하겠습니다. 1. The Problem of overfitting[ Example: Linear Regression ] 위와 같은 Linear Regression 집값 예측 문제가 있다고 할 때, 직선의 가설함수를 세울 때, 이차함수의 가설함수를 세울 때, 다차 함수의 가설함수를 세울 때 각각의 상황에 대한 판단이 아래와 같이 내려집니다.직선: Underfitting or high-bias이차함수: Just Right다차함수: Overfittin..
본 내용은 Coursera에서 Andrew ng 의 Machine Learning(기계학습, 머신러닝)을 수강한 내용을 정리한 것입니다. 이번 장에서는 Classification(분류)문제 해결을 위한 Logistic Regression에 대해서 알아보도록 하겠습니다. 1. Classification[ Classification ]우리가 앞에서 배운 Linear Regression이 주어진 Feature에 대해 Continuous(연속적인)한 Value를 Predict하는 방법이였다면, Classification은 주어진 Feature에 대해 Data들을 Discrete(이산적인)한 Class로 분류하는 방법으로 우리가 예측하기를 원하는 값 y는 분류된 클래스들 중 하나의 영역에 속하게 됩니다. Clas..
본 내용은 Coursera에서 Andrew ng 의 Machine Learning(기계학습, 머신러닝)을 수강한 내용을 정리한 것입니다. 이번 장에서는 Gradient Descent(경사 하강법, 기울기 하강법)에 대해서 알아보도록 하겠습니다. 1. Gradient Descent[ Gradient Descent ]Gradient Descent Algorithm은 Cost Function $J(\theta_0, \theta_1)$ 을 최소로 만드는 $\theta_0, \theta_1$ 을 구하는 알고리즘으로 Linear Regression뿐만 아니라 머신러닝(기계학습)에서 전반적으로 사용되는 알고리즘입니다. Gradient Descent는 먼저 $\theta_0, \theta_1$ 에 대한 임의의 초기값으..
본 내용은 Coursera에서 Andrew ng 의 Machine Learning(기계학습, 머신러닝)을 수강한 내용을 정리한 것입니다. 이번 장에서는 모델과 비용함수(Model and Cost Function)에 대해서 알아보겠습니다. 1. Model(모델)[ Model Representation ] 아래의 그림과 같이 다양한 크기의 집과 그 가격이 주어진 그래프가 있을 때, 어떤 한 사람이 1250 feet 크기의 집을 판매하려고 할 때, 얼마에 판매하는 것이 적합한지 우리가 대답을 해주어야 하는 상황입니다. 우리는 데이터들에 맞는 모델을 찾기 위해 직선을 하나 그어 그에 대응하는 가격을 얘기해줄 수 있습니다. 이러한 예시는 우리가 저번에 다루었던 Supervised Learning 중 Regress..