딥러닝 - 선형회귀 , 로지스틱 , 신경망 구조 , 소프트맥스 , RNN
'전공 스터디 > 기계학습' 카테고리의 다른 글
다양한 회귀분석 간단정리 (0) | 2017.02.04 |
---|---|
결정트리 학습법 (0) | 2017.02.01 |
나이브 베이즈 예제 손수 해보기! (0) | 2017.02.01 |
나이브 베이즈 (0) | 2017.01.14 |
의사결정트리와 랜덤포레스트 (0) | 2017.01.14 |
|
다양한 회귀분석 간단정리 (0) | 2017.02.04 |
---|---|
결정트리 학습법 (0) | 2017.02.01 |
나이브 베이즈 예제 손수 해보기! (0) | 2017.02.01 |
나이브 베이즈 (0) | 2017.01.14 |
의사결정트리와 랜덤포레스트 (0) | 2017.01.14 |
http://egloos.zum.com/spaurh/v/4006939 - CFT, DFT, FFT 정리
https://www.youtube.com/watch?v=oGhITq9boKE --FFT(Matlab)
http://bcho.tistory.com/1010 - 나이브베이즈
http://math7.tistory.com/120 - 선형회귀분석
http://m.blog.naver.com/libido1014/120122772781 - 로지스틱
http://blog.naver.com/PostView.nhn?blogId=y4769&logNo=220390306491 - 다중회귀분석(SPSS중심)
https://ko.wikipedia.org/wiki/%EB%8B%A4%EC%A4%91%EA%B3%B5%EC%84%A0%EC%84%B1 - 다중공선성
https://ko.wikipedia.org/wiki/%EA%B3%A0%EC%86%8D_%ED%91%B8%EB%A6%AC%EC%97%90_%EB%B3%80%ED%99%98 - FFT위키피디아
https://wikidocs.net/4045 - 공돌이 수학노트
선형회귀분석에서 y절편을 구할 때 x=0을 대입하지않는다.
x=0을 기준으로 잡는 것 자체가 이상한 경우가 많기 떄문이다.
x가 온도이면 괜찮은데 키라면..?
일단 , 관찰값(y)가 범주형이어야한다. 연속이든 이산이든 분류가 되어야한다!
그리고 결과값이 이분형결과(이항분포느낌?)로 나와야한다.
선형회귀분석보다 독립변수(입력값(?))가 정말 많다.
종속변수(결과)는 똑같이 하나다.
추정방법은 독립변수(입력)를 어떻게 대입하느냐의 차이다.
딥러닝 - 선형회귀 , 로지스틱 , 신경망 구조 , 소프트맥스 , RNN (0) | 2017.03.04 |
---|---|
결정트리 학습법 (0) | 2017.02.01 |
나이브 베이즈 예제 손수 해보기! (0) | 2017.02.01 |
나이브 베이즈 (0) | 2017.01.14 |
의사결정트리와 랜덤포레스트 (0) | 2017.01.14 |
H(S) = 엔트로피지수(혼잡도)
EX)
300명을 [150명 150명]으로 나뉘면 혼잡도(엔트로피)는 1이고 [300명 0명]으로 나무면 혼잡도(엔트로피)는 0이 된다.
[죽었냐 안죽었냐]를 성별로 나눈 것이 2번쨰 사진이다.
해서 각각의 엔트로피를 구하고
(상위엔트로피 - 하위엔트로피)(가중치를 둬서 한다!!)를 해서 정보획득량(IG)를 구하고 속성(성별 , 나이 ...등등)을 선택한다.
딥러닝 - 선형회귀 , 로지스틱 , 신경망 구조 , 소프트맥스 , RNN (0) | 2017.03.04 |
---|---|
다양한 회귀분석 간단정리 (0) | 2017.02.04 |
나이브 베이즈 예제 손수 해보기! (0) | 2017.02.01 |
나이브 베이즈 (0) | 2017.01.14 |
의사결정트리와 랜덤포레스트 (0) | 2017.01.14 |
http://bcho.tistory.com/1010 - 나이브베이즈
조건부확률 개념을 일단 알아야 한다.
모르면 검색해서 알아보고 와라.
일단 예제를 보면 클래스(C) , 입력벡터(D) , 학습벡터가 있다.
입력벡터 (D) = {fun , furious , fast }이다. P(D | C) = P(fun | C) X P(furious | C) X P(fast | C)이다.
즉 입력벡터 구성요소들을 독립시행하겠다는 의미이다.
입력벡터안에 구성요소간 독립이라는 전제가 있어야한다.
LaplaceSmoothing은 입력벡터안에 학습벡터안에는 하나도 없는 구성요소가 들어가면 0이 나온다. 블로그 사이트참조!
다양한 회귀분석 간단정리 (0) | 2017.02.04 |
---|---|
결정트리 학습법 (0) | 2017.02.01 |
나이브 베이즈 (0) | 2017.01.14 |
의사결정트리와 랜덤포레스트 (0) | 2017.01.14 |
인공지능의 역사 (0) | 2017.01.14 |
다양한 회귀분석 간단정리 (0) | 2017.02.04 |
---|---|
결정트리 학습법 (0) | 2017.02.01 |
나이브 베이즈 예제 손수 해보기! (0) | 2017.02.01 |
의사결정트리와 랜덤포레스트 (0) | 2017.01.14 |
인공지능의 역사 (0) | 2017.01.14 |