Mathlife
Mathlife의 학습 노트
Mathlife
전체 방문자
오늘
어제
  • 분류 전체보기
    • CS
      • 알고리즘
      • 자료구조
      • 운영체제
      • 네트워크
      • 데이터베이스
    • 프로그래밍 언어
      • Java
      • JavaScript
      • C·C++
      • Python
    • Backend
      • Spring
    • Frontend
      • HTML
      • CSS
    • Math
      • Linear Algebra
      • Calculus
    • AI
      • ML
      • DL
      • RL
    • Git

블로그 메뉴

  • 홈
  • 관리
  • 글쓰기
  • 태그
  • 방명록

공지사항

인기 글

태그

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
Mathlife

Mathlife의 학습 노트

AI/ML

로지스틱 회귀

2022. 5. 11. 07:05

$\hat{y} := P(y=1|x) := \sigma (w^Tx+b),\ $ where $\sigma : $ logistic function.

 

Maximum Log-Likelihood Estimation을 수행하면 모수 $w, b$를 추정할 수 있다.

(엄밀하게 말하면 모수는 $\sigma(w^T x + b)$ 이다. p(y|x) = Bern($\sigma(w^T x + b)$) 이기 때문이다. 하지만 x를 알고 있기 때문에 자연스럽게 w, b도 추정할 수 있게 된다.) 

 

$\displaystyle L = \prod_{i=1}^{m}{P(y^{(i)}|x^{(i)})}$.

 

$\displaystyle LL = \sum_{i=1}^{m}log{P(y^{(i)}|x^{(i)})}$.

 

Cost funtion $J := -LL,\ $ since $\displaystyle \underset{w, b}{\operatorname{argmin}} J = \underset{w, b}{\operatorname{argmax}} LL$.

 

'AI > ML' 카테고리의 다른 글

Perceptron Convergence Theorem Proof  (0) 2022.04.22
    'AI/ML' 카테고리의 다른 글
    • Perceptron Convergence Theorem Proof
    Mathlife
    Mathlife

    티스토리툴바