블로그 이미지
황상두

카테고리

기타 (101)
알고리즘(백준) (3)
임베디드 보안 (7)
windows internal (22)
공부 (16)
전공 스터디 (27)
과제 (8)
영어 (6)
기록물 (6)
Total
Today
Yesterday

달력

« » 2025.2
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28

공지사항

태그목록

최근에 올라온 글

http://bcho.tistory.com/1010 - 나이브베이즈


조건부확률 개념을 일단 알아야 한다.

모르면 검색해서 알아보고 와라.




일단 예제를 보면 클래스(C) , 입력벡터(D) , 학습벡터가 있다.


입력벡터 (D) = {fun , furious , fast }이다. P(D | C) = P(fun | C) X P(furious | C) X P(fast | C)이다.

즉 입력벡터 구성요소들을 독립시행하겠다는 의미이다.

입력벡터안에 구성요소간 독립이라는 전제가 있어야한다.


LaplaceSmoothing은 입력벡터안에 학습벡터안에는 하나도 없는 구성요소가 들어가면 0이 나온다. 블로그 사이트참조!




'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈  (0) 2017.01.14
의사결정트리와 랜덤포레스트  (0) 2017.01.14
인공지능의 역사  (0) 2017.01.14
Posted by 황상두
, |

최근에 달린 댓글

글 보관함