일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- vscode
- docker attach
- Pull Request
- cs231n
- logistic regression
- docker
- 도커
- numpy
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- 기초확률론
- AIFFEL
- airflow
- 코크리
- docker exec
- 히비스서커스
- 사회조사분석사2급
- 티스토리챌린지
- Jupyter notebook
- Decision Boundary
- HookNet
- CellPin
- ssh
- IVI
- 프로그래머스
- 백신후원
- WSSS
- aiffel exploration
- 오블완
- GIT
- cocre
- Today
- Total
목록Theory (77)
히비스서커스의 블로그
이 글은 S Graham 저술 "Hover-Net: Simultaneous segmentation and classification of nuclei in multi-tissue histology images" (2019)에 대하여 정리한 내용입니다. 내용이 부실하거나 잘못되었을 수 있음을 미리 말씀드립니다. Abstract Haematoxylin과 Eosin으로 염색된 조직학 이미지로 Nuclear segmentation, Classification하는 것은 디지털 병리학의 work-flow 중 가장 기본적인 전제조건이다. 자동화 방법의 nuclear segmentation, classification의 발달로 수 만장 이내의 whole-slide 병리 이미지(더 넓은 범주 핵의 형태 측정의 가능성을 ..
PAIP2021을 준비하게 되며 semantics segmentation을 깊이 공부하게 되었다. 사실 segmentation이 무엇이다 정도만 알고 있었기에 좀 더 공부해둘 것을 아쉬워하며 열심히 공부 중이다. 꾸준히 공부하며 블로그에 기록을 남기려 한다. segmentation의 평가지표를 살펴보고 PAIP2021에서 제시한 evaluation metrics에 대해 해석을 해보았다. 일반적으로 segmentation의 평가지표로는 Pixel Accuracy(PA), Mean Pixel Accuracy(MPA), Intersection over Union(IoU), Dice coefficient(=F1 score)가 존재한다. Pixel Accuracy(PA) 단순하게 픽셀의 비율을 올바르게 예측한 비..
※이 내용들은 edwith(KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 5강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ "Error" Cases in SVM 앞에서 살펴본 내용에서 우리는 아래의 그림과 같이 선형인 Decision boundary에서 hard margin을 사용했을 경우 발생하는 error들에 대한 방안으로 두 가지를 고려하였다. 첫번째 옵션 더욱 복잡한 (비선형의) Decision Boundary를 만들고 hard margin을 유지하는 방안 두번째 옵션 선형의 Decision Boundary를 유지하고 soft margin을 만들어 에러를 허용하는 방안 두번째 옵션에 대해서 먼저 살펴보자. 이를 위해 Error에 대한 페널티를 어떻게 ..
※이 내용들은 edwith(KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 5강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ Decision Boundary를 설정하는데 있어서 우리는 Sigmoid Function이 Bayes risk가 적으므로 더 좋다는 것을 배웠었다. Decision Boundary는 모델의 성능을 결정하는 아주 중요한 요소이다. 이제 확률론을 근거하여 Decision Boundary에 접근해보자. Decision Boundary with Probability 위의 그림에서 빨간점과 파란점을 구분하는 Decision Boundary을 선형으로 긋는다고 하였을 때 당연히 우리는 빨간점과 파란점 사이에 선을 그을 것이다. 하지만 그 선들 중에..
※이 내용들은 edwith(KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 4강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 우리는 앞서 Naive Bayes Classifier와 Logistic Regression classifier 를 살펴보았다. 이 둘 사이의 관계를 이번 시간에 알아보도록 하자. 먼저 Naive Bayes를 Logistic Regression으로 근사시키는 방법을 알아보고, 후에 Naive Bayes와 logistice Regression을 비교해보자. Naive Bayes to Logistic Regression Naive Bayes의 Classifier Function는 범주형 Feature들에 대해서 다루었을 때 Feature들이 ..
※이 내용들은 edwith(KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 4강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ Finding $\theta$ with Gradient Ascent 우리는 이전에 Logistic Regression에서 $\hat{\theta} = argmax_{\theta} \prod_{1 \leq i \leq N} P(Y_i | X_i ; \theta)$ 와 같이 \theta$를 얻기 위하여 아래와 같이 $ f(\theta) = \sum_{1 \leq i \leq N} log( P(Y_i | X_i ; \theta))$ $ \frac{\partial f(\theta)}{\partial \theta_j} = \frac{\partia..
※이 내용들은 edwith(KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 4강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 저번 시간에 이어 Logistic Regression을 최적화하는 $\hat{\theta}$는 closed form solution이 아니라 open form solution이었다. 이를 approximate하게 구하기 위해서는 Gradient Descent Algorithm을 통해 해결해야 한다. Gradient Descent Algorithm에서 가장 접근하기 쉬운 것이 Taylor Expansion이다. 테일러 급수는 어떤 점에서 무한 번 미분가능한 함수를 그 점에서 미분계수 값으로 계산할 수 있는 무한급수로 표현된 함수로 나타내는..
※이 내용들은 (KAIST Open Online Course)의 인공지능 및 기계학습 개론 1 Chap. 4강 내용을 기반으로 재구성하였음을 먼저 밝힙니다.※ 저번 시간에 이어 이번에는 Sigmoid function 중 하나인 Logistic Function에 관하여 알아보자. 먼저 Sigmoid function이 가지는 특징에 대하여 살펴보면 경계를 가진다. 차별화할 수 있다. (부드럽게 되어 있어) 실제 함수이다. 모든 실제 입력값에 대해 정의된다. x들은 -에서 +에 되어 있고 combine되어 있어야 한다. 양의 미분값을 가진다. (증가함수여야 한다.) Logistic Function 은 결과값이 0과 1 사이의 값을 가지는 함수이다. Logistic Function의 역함수는 Logit Func..