일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- cocre
- 기초확률론
- 오블완
- vscode
- Jupyter notebook
- 프로그래머스
- numpy
- docker attach
- AIFFEL
- 티스토리챌린지
- Decision Boundary
- airflow
- IVI
- 백신후원
- GIT
- WSSS
- 도커
- HookNet
- aiffel exploration
- cs231n
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- ssh
- docker exec
- docker
- logistic regression
- CellPin
- 사회조사분석사2급
- 히비스서커스
- 코크리
- Pull Request
Archives
- Today
- Total
목록Marginal Independence (1)
히비스서커스의 블로그
[기계학습 3강] Naive Bayes Classifier
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 3강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 여러 개 feature를 가진 X가 주어졌을 때 label Y를 어떻게 결정할 것인가에 대해 우리는 아래의 예시를 가정하여 Classifier를 생각해보았다. 이번에는 Optimal Classifier 중에서 가장 간단한 모델인 Naive Bayes Classifier에 대해 알아보자. Dataset 위의 자료에 대해 다음과 같음을 먼저 배운 바가 있다. X :: Sky ~ Forecst Y :: EnjoySpt D :: Dataset (위의 표에서 X와 Y를 제외한 나머지 관측값들 전체) Optimal Classifier는 아래의 식을 만족해야했..
Theory/Machine Learning
2021. 4. 6. 23:34