본문 바로가기
Study/Machine Learning

Lecture 6) Logistic Regression

by 커피콩 2022. 1. 23.

YouTube에 올라온 Andrew Ng 교수님의 Machine Learning 영상을 보고 여섯 번째 Lecture를 듣고 캡쳐 및 내용을 적은 포스트이다.

다섯 번째 Lecture는 Octave 튜토리얼이라서 건너뛰고 혹시 궁금하다면 다른 블로그의 포스트를 찾아보자.

 

6.1 Classification

y의 값이 0이면 Negative Class이고 1이면 Positive Class이다.

e.g. Tumor(종양)가 Malignant(악성종양) 여부를 분류
- 0이면 Benign Tumor(양성종양)을 의미한다
- 1이면 Malignant Tumor(악성종양)을 의미한다

Logistic Regression도 Classification 알고리즘의 일정으로 0 <= h(x) <= 1 사이의 값을 예측한다.

 

6.2 Hypothesis Representation

 

6.3 Decision Boundary

위처럼 Linear 형태로 Decision Boundary를 정할 수 있지만, 그렇지 않은 경우도 있다.

 

6.4 Cost Function

Logistic Regression도 Linear Regression처럼 Convex 형태를 갖는게 일반적이나,Non-Linear한 경우도 존재하기 때문에 Non-Convex 형태를 보이기도 한다. Non-Convex에서는 Global Minimum을 구할 수 없기 때문에 Convex한 형태로 만들어줘야 한다.

Non-Convex를 방지하기 위한 Logistic Regression의 Cost function은 아래와 같다.

 

6.5 Simplified Cost Function & Gradient Descent

아래는 Gradient Descent를 사용해 Cost Function을 최소하는 방법에 대한 정의이다.

 

6.6 Advanced Optimization

Optimization 알고리즘은 Gradient Descent, Conjugate Gradient, BFGS, L-BFGS 총 4가지가 있다.Conjugate Gradient, BFGS, L-BFGS를 사용했을 때의 장단점은 아래와 같다.

<장점>
- α를 Manually 선택 불필요
- Gradient Descent보다 종종 빠를 때가 있음

<단점>
- Gradient Descent보다 더 복잡함

 

6.7 Mutliclass Classification One vs All

Email 폴더 또는 태깅을 Work, Friends, Family, Hobby로 해야한다고 가정하자.

그러면 y값은 1, 2, 3, 4 총 4개가 될 수 있음을 알 수 있다. 이러한 경우를 Multi-class Classification이라고 한다.

 

'Study > Machine Learning' 카테고리의 다른 글

유용한 강의 영상  (0) 2022.02.03
Lecture 7) Regularization  (0) 2022.01.23
Lecture 4) Linear Regression With Multiple Variables  (0) 2022.01.23
Lecture 3) Linear Algebra  (0) 2022.01.23
Lecture 2) Linear Regression With One Variable  (0) 2022.01.22

댓글