코세라(20)
-
MachineLearning - The Problem of OverFitting
Machine Learning - The Problem of OverFitting 지금까지 Machine Learning을 학습하면서 배운 알고리즘들을 간단하게 복습해보자.우선, 기계학습이라는 것은 컴퓨터에게 무엇을 어떻게 하라고 명확하게 지시하지 않은 상태에서 데이터와 결과 Set을 제공하면, 컴퓨터가 그에 따른 분석모델을 적용해서 가설 함수를 세우고, 새로운 데이터가 제공되었을 때 가설 함수를 바탕으로 결과를 예측하여 출력하는 것을 의미한다. 이 가설 함수는 데이터와 결과 Set이 제공될 때마다 전체 오차가 적어지는 방향으로 정확성을 높여간다. 데이터와 결과 Set을 분석하는 방법은 학습한 바로는 크게 두 가지가 있었다.Linear Regression 모델과 Classification 모델이었다. L..
2019.02.03 -
MachineLearning - Classification(3)
Machine Learning - Classification(3)MultiClass Classification : One - vs - All 지금까지 Classification에서는 One vs One 모델을 주로 다루었다. Linear Regression 모델과는 다르게 결과값이 연속적인 값이 아니라 이산적인 값으로 분포하기 때문에, 기계학습을 통해 Decision Boundary를 구하고, 그 Boundary를 기준으로 y = 0 인지, 1인지를 판단하는 과정을 거쳤다. 하지만 실생활에서는 One vs One 모델 보다는 One vs All 모델을 통해서 결정해야 하는 경우가 더 많다. One - vs - All 모델은 위의 그림처럼 y = 0 ~ n 까지의 값을 가진다. y값을 결정하는 기본적인 아..
2019.02.03 -
MachineLearning - Classification(2)
Machine Learning - Classification(2) 앞서 Classification에서 사용하는 가설함수 h의 식이 Linear Regression Model에서 사용하는 가설함수의 식과는 다르기 때문에 비용함수도 조금은 수정을 가할 필요가 있다. 기존의 Linear Regression Model에서 사용하는 비용함수의 식을 그대로 사용하게 되면 "Non - Convex" 한 함수가 도출될 가능성이 높아지게 되는데, 이 "Non - Convex" 한 함수란, 볼록함수와는 달리 극점이 굉장히 많을 수 있는 함수(아래 그림 참조) 이기 때문에, Gradient Descent를 통해 구한 최솟값이 Local Minimum일 뿐, Global Minimum값은 아닐 수 있는 가능성이 생긴다. 따라..
2019.02.01 -
MachineLearning - Classification(1)
* 첨부된 자료의 모든 저작권은 Coursera에 있음을 미리 밝힙니다. Machine Learning - Classification (1 Vs 1) 이전까지 살펴모았던 Linear Regression 모델은 주어진 데이터를 바탕으로 선형 회귀모델을 예측해 내는 것이었다. 즉, 연속적인 파라미터의 값들에 대해 y값(결과값)을 추론해 낼 수 있는 가설 함수를 찾고 데이터를 입력하여 학습을 시키면서 가설함수가 예측한 값과 실제 데이터와의 오차를 줄이는 과정을 통해 더욱 정확한 가설함수를 찾아내는 것이다. 이번에 살펴볼 Classification에 대한 가설함수의 모델도 위와 비슷한 과정을 거친다. 하지만 Classification과 Regression 모델이 갖는 서로 다른 특성때문에 함수를 예측하는 과정에..
2019.02.01 -
Linear Regression with Octave
* 업로드한 사진의 모든 저작권은 COURSERA에 있음을 미리 밝힙니다 이번 시간에는 Week1, Week2 를 마치고 그동안 배웠던 내용들을 Octave 코드로 표현하여 프로그램을 실행하는 과제를 수행하였다.과제에서 Octave Programming을 통해서 제출해야 하는 내용은 다음과 같다. %% Machine Learning Online Class - Exercise 1: Linear Regression % Instructions% ------------%% This file contains code that helps you get started on the% linear exercise. You will need to complete the following functions% in this ..
2019.01.31 -
MachineLearning - LinearRegression(2)
* 자료의 모든 저작권은 COSERA에 있음을 미리 밝힙니다. Machine Learning - Linear Regression(2) Linear Regression with Multiple Variables. - 변수가 여러 개인 선형 회귀모델을 의미한다.선형 모델이기 때문에 변수의 개수는 충분히 많을 수 있으나, 변수의 차수는 1차인 성질을 가지게 된다. 첫 번째 시간에 공부했던 것들을 잠시 살펴보면 변수가 하나인 선형 모델은 변수가 x 하나인 일차 함수 꼴의 가설 함수를 가지며궁극적인 목표는, 여러 개(m개)의 학습데이터를 통해 가설 함수를 오차가 적은 방향으로 예측해 나가는 것이다.오차가 적은 방향으로 가설 함수를 예측..
2019.01.30