Logistic regression 정리

  • 분류를 위해 사용한다.

Binary class/ Multi-class Classification 가 있다.

classification

Y = f(x) 라는, 앞서 배운, 선형회귀로 예측한다예 쳤을 때, x가 무한대로 갈 때, y의 값이 무한한 음수로가게 된다.

그러나, 위의 classification 모델에서는, y 값은 0,1 두가지 숫자로만 표현이 된다. 따라서, f(x)의 실효성이 없어지게 된다.

이 문제를 해결하기 위해서, 모든 실수를 정의 역으로 갖고, 치역은 0에서 1을 갖는 함수에 이 f(x) 의 결과를 대입한다.

이 함수는 바로 시그모이드 함수이다.

시그모이드 함수는, 이 f(x)의 결과값을 인풋으로 해서, 아웃풋을 출력한다. 이것을 입체적으로, 좌표적으로 생각해보면, 시그모이드 함수는, x,y 평면에서의 특정한 인풋을 가지고 어떤 값을 내는데 , 그 값이 z축으로 내질 수 있다.

sigmoid

z축은, 음의 무한대, 양의 무한대로 갈 때, 각각 0 과 1 에 수렴한다. F(x) 의 z 값은 0이다.

Malignant0 는, 이 시그모이드 함수의 위에 있고, malignant1 은 이 시그모이드 함수의 아래에 있다.!

그럼 이제, 수식으로 생각해보자.

Logistic regression:

시그모이드 함수에 넣은게 저 하늘색 형광펜이다. 시그모이드보다 아래있으면 1, 시그모이드보다 위에 있으면 0이다.

Cost function

Y가 0, 1 일때 구분하지 않고, 한번에 나타낸 것

0,1 일때 각각 한 항이 없어져 한 항만 남는다.

Gradient descendant 는, cost function 미분한것.

세타에 대해 미분을 하면 다음과 같다.


© 2018. All rights reserved.

Powered by Hydejack v8.5.2