블로그 이미지
황상두

카테고리

기타 (101)
알고리즘(백준) (3)
임베디드 보안 (7)
windows internal (22)
공부 (16)
전공 스터디 (27)
과제 (8)
영어 (6)
기록물 (6)
Total
Today
Yesterday

달력

« » 2024.11
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

공지사항

태그목록

최근에 올라온 글

'전공 스터디'에 해당되는 글 27건

  1. 2017.02.01 결정트리 학습법
  2. 2017.02.01 나이브 베이즈 예제 손수 해보기!
  3. 2017.01.24 아이디어 공모
  4. 2017.01.14 나이브 베이즈
  5. 2017.01.14 의사결정트리와 랜덤포레스트

H(S) = 엔트로피지수(혼잡도)

EX)

300명을 [150명 150명]으로 나뉘면 혼잡도(엔트로피)는 1이고 [300명 0명]으로 나무면 혼잡도(엔트로피)는 0이 된다.

[죽었냐 안죽었냐]를 성별로 나눈 것이 2번쨰 사진이다.

해서 각각의 엔트로피를 구하고

(상위엔트로피 - 하위엔트로피)(가중치를 둬서 한다!!)를 해서 정보획득량(IG)를 구하고 속성(성별 , 나이 ...등등)을 선택한다. 

Posted by 황상두
, |

http://bcho.tistory.com/1010 - 나이브베이즈


조건부확률 개념을 일단 알아야 한다.

모르면 검색해서 알아보고 와라.




일단 예제를 보면 클래스(C) , 입력벡터(D) , 학습벡터가 있다.


입력벡터 (D) = {fun , furious , fast }이다. P(D | C) = P(fun | C) X P(furious | C) X P(fast | C)이다.

즉 입력벡터 구성요소들을 독립시행하겠다는 의미이다.

입력벡터안에 구성요소간 독립이라는 전제가 있어야한다.


LaplaceSmoothing은 입력벡터안에 학습벡터안에는 하나도 없는 구성요소가 들어가면 0이 나온다. 블로그 사이트참조!




'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈  (0) 2017.01.14
의사결정트리와 랜덤포레스트  (0) 2017.01.14
인공지능의 역사  (0) 2017.01.14
Posted by 황상두
, |

        **아이디어 공모전**

첨부파일 참조

2인이상, 사회산업전공_권재희 외.hwp


HuCut

-

*유니버셜 디자인 공모전*

>>개발목표

*적정량의 휴지사용을 장려한다.

시각장애인이 양을 가늠할 수 있도록 한다.

*지체장애인이 손쉽게 휴지를 뜯을 수 있도록 한다.


휴지를 뽑다보면 멈추게 된다.

'전공 스터디 > Wel-Tech' 카테고리의 다른 글

납땜  (0) 2017.02.09
아두이노-안드로이드 블루투스 통신(HC-05)  (0) 2017.02.06
정기세미나  (0) 2017.01.12
아두이노 시작하기  (0) 2017.01.04
청각장애인을 위한 제품기획  (0) 2017.01.04
Posted by 황상두
, |

http://untitledtblog.tistory.com/31 : 나이브 베이즈


조건부확률을 이용한다.

스팸필터 및 키워드검색 시 사용한다.


구성요소를 통해서 클래스를 추측한다!


'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈 예제 손수 해보기!  (0) 2017.02.01
의사결정트리와 랜덤포레스트  (0) 2017.01.14
인공지능의 역사  (0) 2017.01.14
Posted by 황상두
, |

프로그래밍 R 포스팅 사이트

(의사결정트리)

http://pubdata.tistory.com/27

분류트리 - 유한한 범주내에서 나온다.(의사결정트리는 분류트리이다.)

회귀트리 - 실수형태로 나온다.(무한하며 수학적인 느낌이 강하다.)



머신러닝, R, 인공지능 , 데이터 마이닝 등등 많은 내용이 포스팅 되어있는 사이트이다.

(랜덤 포레스트)

http://blog.daum.net/_blog/BlogTypeView.do?blogid=0QoPO&articleno=705


앙상블 학습법이란?

http://blog.daum.net/_blog/BlogTypeView.do?blogid=0QoPO&articleno=705

쉽게 설명하면 다양한 알고리즘을 사용하여 예측하는 것을 의미한다.


Overfit(과적합)

새로운 데이터에대해서 적응을 잘하지 못하는 것을 의미!


out of bag(OOB)

ex) n개의 공을 n번 복원추출을 하자. 그렇게 해서 1번이라도 뽑힌 공을 training으로 사용하고 뽑히지 않은 공을 test자료로 사용한다,


OOB(out of bag)를 사용해서 표본에서 중복을 허용하여 같은 크기의 부 표본을 추출하여 training 자료로 하고 나머지 선택되지 않은 개체들은 test 자료로 한다. 

training자료를 트리 알고리즘에 넣는데 각 노드에서 대략 랜덤으로 절반정도의 변수만 추출하여 쓰고 나무(트리)를 최대한 크게 만든다. (다양한 트리를 만드는데 최대한 다르게 만드려고)

- why? 유사성을 피하기 위해(독립, 다양성 증가), 다른 나무를 만들어 나무를 만들때마다 다른 절반의 변수들이 사용된다. )


앞 단계를 n번 반복해서 산출된 모형을 통합하여 결론을 voting한다. (여러개 트리에 입력 빈도수 측정)

- 예를 들어 50개의 나무를 만들때, 30대 20으로 만족도가 나온다면(빈도수) -> 1로 판단


데이터가 많은 자료에서 효율적으로 의사결정가능하다. 


트리를 사용하기 때문에 연산속도가 빠르고 변수를 랜덤으로 하기 때문에 각 변수에 대한 중요도를 낼 수 있다. 곧 지니계수를 얼마나 감소시킨 변수가 있는가를 찾아낸다면 변수의 중요도를 알 수 있다

(지니계수를 통해 변수의 중요도 파악가능)

지니계수 = 불평등지수




'전공 스터디 > 기계학습' 카테고리의 다른 글

다양한 회귀분석 간단정리  (0) 2017.02.04
결정트리 학습법  (0) 2017.02.01
나이브 베이즈 예제 손수 해보기!  (0) 2017.02.01
나이브 베이즈  (0) 2017.01.14
인공지능의 역사  (0) 2017.01.14
Posted by 황상두
, |

최근에 달린 댓글

글 보관함