일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- cs231n
- CellPin
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- IVI
- 도커
- 기초확률론
- aiffel exploration
- docker
- WSSS
- GIT
- 사회조사분석사2급
- 백신후원
- AIFFEL
- 코크리
- Pull Request
- 프로그래머스
- numpy
- 히비스서커스
- vscode
- Jupyter notebook
- 오블완
- HookNet
- cocre
- logistic regression
- Decision Boundary
- docker exec
- ssh
- 티스토리챌린지
- airflow
- docker attach
- Today
- Total
목록Theory (77)
히비스서커스의 블로그
MovieLens은 GroupLens Research에서 MovieLens의 등급 dataset을 수집해서 제공한 자료들이다. dataset은 세트의 크기에 따라 다양한 기간에 설쳐 수집되었다. 자료들에 대한 공개재배포는 허용하지 않으므로 아래에 링크를 걸어두었고, 데이터에 관한 정보를 README.md에서 얻어 간단하게 정리해보았다. grouplens.org/datasets/movielens/ MovieLens GroupLens Research has collected and made available rating data sets from the MovieLens web site ( The data sets were collected over various periods of time, dependi..
※ 이 내용들은 전적으로stanford university의 CS231n 2017 5강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 4장에서는 Backpropagation과 Neural Networks에 관하여배웠다. 2021/01/25 - [Programming/CS231n] - [lecture 4] Introduction to Neural Networks [lecture 4] Introduction to Neural Networks ※ 이 내용들은 전적으로 stanford university의 CS231n 2017 4강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전 3장에서는 Loss Function과 Opitmization을 살펴보았다. 2021/01/13 - [Progra..
기초확률론 네번째 포스팅으로 조건부확률, 곱셈법칙, 베이즈 정리에 대해 알아보겠습니다. 저번 시간에는 확률측도의 성질, 균등확률결과를 갖는 표본공간에 대해 알아보았습니다. 2021/01/22 - [Statistics/Probability_Theory] - [기초확률론 3] 확률측도의 성질, 균등확률결과를 갖는 표본공간 [기초확률론 3] 확률측도의 성질, 균등확률결과를 갖는 표본공간 기초확률론 세번째 포스팅으로 확률측도의 성질, 균등확률결과를 갖는 표본공간에 대해 알아보겠습니다. 전반적인 내용은충북대학교 최정배 강사님의 강의 내용을 참고하였음을 밝힙니다. 저 biology-statistics-programming.tistory.com 확률측도의 성질은 우리가 직관적으로 생각할 수 있는 것들과 같은 성질을 ..
※ 이 내용들은 전적으로 stanford university의 CS231n 2017 4강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전 3장에서는 Loss Function과 Opitmization을 살펴보았다. 2021/01/13 - [Programming/CS231n] - [Lecture 3] Loss Functions [Lecture 3] Loss Functions ※ 이 내용들은 전적으로 stanford university의 CS231n 2017 3강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전에 공부한 내용에서는 Linear classification의 모델의 구조를 살펴보았다. 20. biology-statistics-programming.tistory.com 2021..
기초확률론 세번째 포스팅으로 확률측도의 성질, 균등확률결과를 갖는 표본공간에 대해 알아보겠습니다. 저번 시간에는 확률측도와 확률, 확률측도의 부여방법에 대해 알아보았습니다. 2021/01/15 - [Statistics/Probability_Theory] - [기초확률론 2] 확률측도와 확률, 확률측도의 부여방법 [기초확률론 2] 확률측도와 확률, 확률측도의 부여방법 ※ 이 내용은 충북대학교 정보통계학과 2016년도 최정배 강사님의 기초확률론 수업 내용을 정리한 것을 토대로 재구성해보았음을 밝힙니다. ※ 저번 시간에는 확률실험과 표본공간, 사건에 biology-statistics-programming.tistory.com 확률측도를 부여할 때 이산표본공간일 경우와 연속표본공간일 경우를 달리 해주어야 했는데..
음성분류를 시작하기 앞서 아날로그 데이터가 어떻게 디지털 데이터로 변환될 수 있는지 알아보자. 아날로그 데이터는 연속데이터이고 디지털 데이터는 이진 데이터로 비연속적이다. 따라서, 이 과정에서는 왜곡이 일어날 수 밖에 없는데 표본화, 양자화, 부호화 과정을 통해 간단히 알아보자. 표본화: 아날로그 데이터에서 일정 시간 간격을 두고 표본을 채취하는 방법이다. => 이 과정은 사인 그래프를 히스토그램으로 나타낼 때를 연상하면 도움이 된다. 양자화: 표본화 과정에서 뽑은 표본이 소수점을 무한히 갖는 경우 컴퓨터는 그것을 다 표현할 수 없기 때문에 근사값을 구한다. => 이 과정에서 왜곡이 생긴다!! 부호화: 표본화와 양자화를 거친 디지털 정보를 0과 1의 이진수로 표현하는 과정이다. 자세한 설명은 이곳에서 확..
※ 이 내용들은 전적으로 stanford university의 CS231n 2017 3강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 2021/01/13 - [Programming/AIffel] - [Day 9] Loss Functions [Day 9] Loss Functions ※ 이 내용들은 전적으로 stanford university의 CS231n 2017 3강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전에 공부한 내용에서는 Linear classification의 모델의 구조를 살펴보았다. 20. biology-statistics-programming.tistory.com 지금까지의 내용을 전체적으로 보자면 - 분류 함수 f(x) : image classification을 ..
기초확률론 두번째 포스팅으로 확률측도와 확률, 확률측도의 부여방법에 대해 알아보겠습니다. 저번 시간에는 확률실험과 표본공간, 사건에 대해 알아보았습니다. 2021/01/08 - [Statistics/Probability_Theory] - [기초확률론 1] 확률실험, 표본공간, 사건 [기초확률론 1] 확률실험, 표본공간, 사건 먼저 확률에 대해서 배워야 하는 이유는 뭘까? 우리나라 사람들의 평균 키를 알고 싶다고 하자. 정확하게 조사하려면 우리나라 사람들 전체의 키를 조사한 후 평균을 내야할 것이다. 하지만, 이 biology-statistics-programming.tistory.com 확률이 중요하다고 말해놓고 왜 확률을 말하기 전에 위와 같은 내용들(확률실험, 표본공간, 사건)을 언급하냐고 하실 것 ..