일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- docker
- cocre
- GIT
- AIFFEL
- Jupyter notebook
- docker exec
- docker attach
- 코크리
- aiffel exploration
- 백신후원
- 오블완
- 도커
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- HookNet
- CellPin
- 사회조사분석사2급
- ssh
- WSSS
- 기초확률론
- 히비스서커스
- numpy
- IVI
- 티스토리챌린지
- 프로그래머스
- airflow
- cs231n
- Decision Boundary
- Pull Request
- vscode
- logistic regression
Archives
- Today
- Total
목록map (1)
히비스서커스의 블로그
[기계학습 1강] MAP(Maximum A Posterior)
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 1강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ MLE 떠올려보기 이전 MLE($P(D | \theta)$)에서는 동전이 앞면 나올 확률$P(\theta)$을 고정된 값(= 분포를 따르지 않는 상수의 값)이나 알지 못하는 값으로 가정하고 동전을 던져 나온 결과들을 토대로 가장 그럴듯한(= 가장 높은 가능도를 가지는) 값으로 추정하는 방식이었다. 2021.03.24 - [Statistics/Machine_Learning] - [기계학습 1강] MLE(Maximum Likelihood Estimation) [기계학습 1강] MLE(Maximum Likelihood Estimation) ※이 내용들은..
Theory/Machine Learning
2021. 3. 29. 22:44