블로그 이미지
황상두

카테고리

기타 (101)
알고리즘(백준) (3)
임베디드 보안 (7)
windows internal (22)
공부 (16)
전공 스터디 (27)
기계학습 (7)
Matlab (12)
Wel-Tech (8)
과제 (8)
영어 (6)
기록물 (6)
Total
Today
Yesterday

달력

« » 2025.2
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28

공지사항

태그목록

최근에 올라온 글




https://www.facebook.com/notes/enjoydl/deep-leaning-video-links/1227281394020895 - 딥러닝 강의



























'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈 예제 손수 해보기!  (0) 2017.02.01
나이브 베이즈  (0) 2017.01.14
의사결정트리와 랜덤포레스트  (0) 2017.01.14
Posted by 황상두
, |

http://egloos.zum.com/spaurh/v/4006939 - CFT, DFT, FFT 정리

https://www.youtube.com/watch?v=oGhITq9boKE --FFT(Matlab)

http://bcho.tistory.com/1010 - 나이브베이즈

http://math7.tistory.com/120 - 선형회귀분석

http://m.blog.naver.com/libido1014/120122772781 - 로지스틱

http://blog.naver.com/PostView.nhn?blogId=y4769&logNo=220390306491 - 다중회귀분석(SPSS중심)

https://ko.wikipedia.org/wiki/%EB%8B%A4%EC%A4%91%EA%B3%B5%EC%84%A0%EC%84%B1 - 다중공선성

https://ko.wikipedia.org/wiki/%EA%B3%A0%EC%86%8D_%ED%91%B8%EB%A6%AC%EC%97%90_%EB%B3%80%ED%99%98 - FFT위키피디아

https://wikidocs.net/4045 - 공돌이 수학노트



선형회귀분석에서 y절편을 구할 때 x=0을 대입하지않는다.

x=0을 기준으로 잡는 것 자체가 이상한 경우가 많기 떄문이다.

x가 온도이면 괜찮은데 키라면..?





일단 , 관찰값(y)가 범주형이어야한다. 연속이든 이산이든 분류가 되어야한다!

그리고 결과값이 이분형결과(이항분포느낌?)로 나와야한다.









선형회귀분석보다 독립변수(입력값(?))가 정말 많다.

종속변수(결과)는 똑같이 하나다.


추정방법은 독립변수(입력)를 어떻게 대입하느냐의 차이다.

Posted by 황상두
, |

H(S) = 엔트로피지수(혼잡도)

EX)

300명을 [150명 150명]으로 나뉘면 혼잡도(엔트로피)는 1이고 [300명 0명]으로 나무면 혼잡도(엔트로피)는 0이 된다.

[죽었냐 안죽었냐]를 성별로 나눈 것이 2번쨰 사진이다.

해서 각각의 엔트로피를 구하고

(상위엔트로피 - 하위엔트로피)(가중치를 둬서 한다!!)를 해서 정보획득량(IG)를 구하고 속성(성별 , 나이 ...등등)을 선택한다. 

Posted by 황상두
, |

http://bcho.tistory.com/1010 - 나이브베이즈


조건부확률 개념을 일단 알아야 한다.

모르면 검색해서 알아보고 와라.




일단 예제를 보면 클래스(C) , 입력벡터(D) , 학습벡터가 있다.


입력벡터 (D) = {fun , furious , fast }이다. P(D | C) = P(fun | C) X P(furious | C) X P(fast | C)이다.

즉 입력벡터 구성요소들을 독립시행하겠다는 의미이다.

입력벡터안에 구성요소간 독립이라는 전제가 있어야한다.


LaplaceSmoothing은 입력벡터안에 학습벡터안에는 하나도 없는 구성요소가 들어가면 0이 나온다. 블로그 사이트참조!




'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈  (0) 2017.01.14
의사결정트리와 랜덤포레스트  (0) 2017.01.14
인공지능의 역사  (0) 2017.01.14
Posted by 황상두
, |

http://untitledtblog.tistory.com/31 : 나이브 베이즈


조건부확률을 이용한다.

스팸필터 및 키워드검색 시 사용한다.


구성요소를 통해서 클래스를 추측한다!


'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈 예제 손수 해보기!  (0) 2017.02.01
의사결정트리와 랜덤포레스트  (0) 2017.01.14
인공지능의 역사  (0) 2017.01.14
Posted by 황상두
, |

최근에 달린 댓글

글 보관함