일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- cs231n
- docker exec
- 기초확률론
- GIT
- CellPin
- 백신후원
- docker
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- WSSS
- 코크리
- airflow
- 사회조사분석사2급
- AIFFEL
- 도커
- aiffel exploration
- 티스토리챌린지
- 오블완
- ssh
- 프로그래머스
- Pull Request
- Decision Boundary
- logistic regression
- Jupyter notebook
- docker attach
- vscode
- numpy
- IVI
- HookNet
- cocre
- 히비스서커스
- Today
- Total
목록Theory (77)
히비스서커스의 블로그
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 4강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 저번 시간에 살펴본 Opitmal Classification model에 대해 다시 살펴보자. X의 특정 포인트 $X_1$에서의 Y의 값은 T라는 Class를 가질 때 확률이 a(> 0.5)라고 하자. 이때 Y의 값이 나머지 F라는 Class를 가질 때의 확률은 1-a( 0.5이므로) F라고도 분류할 수 있는 것(1-a < 0.5 인 것이지 확률이 0이기 아니기 때문)이다. 이제 실선의 Classifier와 점선의 Class..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 3강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 여러 개 feature를 가진 X가 주어졌을 때 label Y를 어떻게 결정할 것인가에 대해 우리는 아래의 예시를 가정하여 Classifier를 생각해보았다. 이번에는 Optimal Classifier 중에서 가장 간단한 모델인 Naive Bayes Classifier에 대해 알아보자. Dataset 위의 자료에 대해 다음과 같음을 먼저 배운 바가 있다. X :: Sky ~ Forecst Y :: EnjoySpt D :: Dataset (위의 표에서 X와 Y를 제외한 나머지 관측값들 전체) Optimal Classifier는 아래의 식을 만족해야했..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 3강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ Supervised learning은 실제 정답을 알고 있는 문제에 대해 모델이 정답을 잘 맞추도록 학습시키는 것이다. 이를 잘 평가하기 위해 Optimal Classification이라는 개념을 도입해보자. Optimal Classification 먼저 확률변수 $X$와 $Y$만으로 이루어진 결합분포를 생각해보자. $X$를 Feature로 $Y$를 label이라고 보면 우리는 $X$가 주어졌을 때 우리의 모델이 예측한 값$f(X) = \hat{y}$이 실제 값$Y$이 아닐 확률을 최소화 시켜주고 싶다. 이를 식으로 나타내보자면, $f^{*} = ..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 2강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ Linear Regression :: 가설을 함수의 형태로 앞서 categorical dataset을 예측하기 위해 decision tree를 배울 때 가설을 decision tree로 만들 수 있었다. 이제 numerical dataset을 예측하기 위해 Linear Regression을 배워볼텐데 가설을 함수의 형태로 만들어보자. $\hat{f}(x; \theta) = \theta_{0} + \sum_{i=1}^{n} \theta_{i} x_{i} = \sum_{i=0}^{n} \theta_{i} x_{i}$ 가설의 함수에 대한 두 개의 관점이..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 2강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 지난시간 배운 것 :: Rule based machine learning 딸 아이가 밖에서 나가서 놀 것인지 아닌지를 판별하는 모델을 만들어보았었다. 하지만 이것은 퍼펙트 월드에서만 적용되므로 현실성이 없었다. 현실 문제는 항상 에러가 존재한다. 에러가 있는 것을 판별하는 방법 중 하나가 Decision Tree이다. 2021.03.31 - [Statistics/Machine_Learning] - [기계학습 2강] Rule Based Machine Learning [기계학습 2강] Rule Based Machine Learning ※이 내용들은 (..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 2강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ Perfect World :: 머신러닝 모델이 잘 수행되기 위해 가정하는 완벽한 상황 1. 관측의 에러가 없으며 일관적이지 않은 관측도 없다. 2. 예측지 못한 효과가 없다. 3. 결과를 예측하는 변수들만으로 결과를 완벽하게 설명할 수 있다. Function Approximation :: Perfect World 가정 하에 Target Function을 Hypothesis하는 것 Instance (X) : 하나의 관측값 Feature : Label을 예측하기 위한 변수 Label : 실제 결과 Training Dataset (D) : Instanc..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 1강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ MLE 떠올려보기 이전 MLE($P(D | \theta)$)에서는 동전이 앞면 나올 확률$P(\theta)$을 고정된 값(= 분포를 따르지 않는 상수의 값)이나 알지 못하는 값으로 가정하고 동전을 던져 나온 결과들을 토대로 가장 그럴듯한(= 가장 높은 가능도를 가지는) 값으로 추정하는 방식이었다. 2021.03.24 - [Statistics/Machine_Learning] - [기계학습 1강] MLE(Maximum Likelihood Estimation) [기계학습 1강] MLE(Maximum Likelihood Estimation) ※이 내용들은..
오늘은 통계학의 가장 중요한 개념이라고 할 수 있는 중심극한정리에 대해서 알아보도록 하겠습니다. 단순히 '많이 뽑으면 정규분포를 따르는 것 아니야?' 라고 생각하실 수 있지만,심층적 의미를 알아보려면 좀 더 디테일하게 살펴볼 필요가 있습니다. 이번 포스팅을 통하여 어디서 무엇을 많이 뽑는 것이고 어떤 것이 어떠한 형태의 정규분포를 따르게 되는 것인지 명확하게 알게 되셨으면 좋겠습니다. 모집단과 표본집단 먼저 모집단과 표본집단에 대해서 알아볼 필요가 있습니다. 모집단이란 우리가 관심있는 대상 전체를 말합니다. 표본집단이란 모집단으로부터 추출된 모집단의 부분 집합이라고 할 수 있습니다. 예를 들어 생각해볼까요? 우리가 대전사람들의 평균 키를 구하고 싶다고 해봅시다. 여기서 모집단은 대전에 주민등록이 되어있는..