일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- numpy
- docker exec
- docker
- IVI
- 오블완
- 프로그래머스
- docker attach
- WSSS
- GIT
- airflow
- HookNet
- Jupyter notebook
- vscode
- cs231n
- 코크리
- CellPin
- 백신후원
- logistic regression
- 기초확률론
- Pull Request
- cocre
- 티스토리챌린지
- ssh
- aiffel exploration
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- 도커
- AIFFEL
- 사회조사분석사2급
- Decision Boundary
- 히비스서커스
- Today
- Total
목록분류 전체보기 (188)
히비스서커스의 블로그
※이 내용들은 전적으로 stanford university의 CS231n 2017 9강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 7강에서는 Training Neural Netwroks 2에 관하여 살펴보았다. 2021/02/14 - [Programming/CS231n] - [lecture 7] training neural network 2 [lecture 7] training neural network 2 ※이 내용들은 전적으로stanford university의 CS231n 2017 7강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 6강에서는 Training Neural Networks 1에 관해서 살펴보았다. 2021/02/07 - [Programmi.. biology-s..
※이 내용들은 전적으로stanford university의 CS231n 2017 7강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 6강에서는 Training Neural Networks 1에 관해서 살펴보았다. 2021/02/07 - [Programming/CS231n] - [Lecture 6] Training Neural Networks 1 [Lecture 6] Training Neural Networks 1 ※이 내용들은 전적으로stanford university의 CS231n 2017 6강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 5강에서는 Convolutional Neural Networks에 관해서 살펴보았다. 2021/02/01 - [Program.. biology..
기초확률론 여섯번째 포스팅으로 확률변수와 확률분포함수에 대해 알아보겠습니다. 저번 시간에는독립사건에 대해 알아보았습니다. 2021.02.05 - [Statistics/Probability_Theory] - [기초확률론 5] 독립사건 [기초확률론 5] 독립사건 기초확률론 다섯번째 포스팅으로 독립사건에 대해 알아보겠습니다. 전반적인 내용은충북대학교 최정배 강사님의 강의 내용을 참고하였음을 밝힙니다. 저번 시간에는 조건부확률, 곱셈법칙, 베 biology-statistics-programming.tistory.com 이번에 살펴볼 확률변수 개념은 저의 개인적인 생각으로 확률론의 핵심이라고 생각합니다. 또한, 수리통계학을 공부하는데에 있어서 모르면 안될 너무나 중요한 개념이기도 하죠. 아무리 강조해도 중요한 개..
※이 내용들은 전적으로stanford university의 CS231n 2017 6강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 5강에서는 Convolutional Neural Networks에 관해서 살펴보았다. 2021/02/01 - [Programming/CS231n] - [Lecture 5] Convolutional Neural Networks [Lecture 5] Convolutional Neural Networks ※ 이 내용들은 전적으로stanford university의 CS231n 2017 5강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 4장에서는 Backpropagation과 Neural Networks에 관하여배웠다. 2021/01/25 - [Progra...
기초확률론 다섯번째 포스팅으로 독립사건에 대해 알아보겠습니다. 저번 시간에는 조건부확률, 곱셈법칙, 베이즈 정리에 대해 알아보았습니다. 2021.01.29 - [Statistics/Probability_Theory] - [기초확률론 4] 조건부확률, 곱셈법칙, 베이즈 정리 [기초확률론 4] 조건부확률, 곱셈법칙, 베이즈 정리 기초확률론 네번째 포스팅으로 조건부확률, 곱셈법칙, 베이즈 정리에 대해 알아보겠습니다. 전반적인 내용은 충북대학교 최정배 강사님의 강의 내용을 참고하였음을 밝힙니다. 저번 시간에는 biology-statistics-programming.tistory.com 이번 시간에는 독립사건에 관하여 알아볼텐데요. 두 사건이 독립이다라는 표현은 많이 들어보셨을 것 같습니다. '독립적'이라는 표현..
회귀를 위한 4가지 모델(GradientBoostingRegressor, XBGRegressor, LGBMRegressor, RandomForestRegressor)들이 사용하였는데 그 중 GradientBoostingRegressor와 RandomForestRegressor의 개념적인 내용과 API를 찾아보며 정리해보기로 하였다. Gradient Boosting Regressor 앙상블 이전까지의 오차를 보정하도록 예측기를 순차적으로 추가하지만 이전 예측기가 만든 잔여오차에 새로운 예측기를 학습시킨다. sklearn 라이브러리의 ensemble 클래스에 저장되어 있어 다음과 같이 불러와야 한다. from sklearn.ensemble import GradientBoostingRegressor 다양한 매..
검색알고리즘을 공부하며 정리해보았다. 검색 검색에 있어서 키란 찾는 항목을 말한다. 종류 검색의 종류는 크게 3가지 배열검색, 연결리스트검색, 이진검색트리검색 등이 있다. 여기서, 배열검색에는 선형 검색, 이진 검색, 해시법 등이 존재한다. 선형검색 선형검색이란 (1xn)의 모양으로 늘어진 배열에서 검색할 때 원하는 키를 맨 왼쪽에서 맨오른쪽으로 한 칸씩 이동하며 찾는 검색방법이다. 선형검색의 종료조건은 크게 2 가지가 있다. 1. 배열에서 키 값을 가진 원소를 못찾고 지나간 경우 (검색에 실패한 경우) 2. 배열에서 키 값을 가진 원소를 찾은 경우 (검색에 성공한 경우) 배열의 개수가 n이라면 조건을 판단하는 횟수는 평균 n/2이다. 선형검색을 수행하면 배열의 매 원소를 지나갈 때마다 1번과 2번을 확..
MovieLens은 GroupLens Research에서 MovieLens의 등급 dataset을 수집해서 제공한 자료들이다. dataset은 세트의 크기에 따라 다양한 기간에 설쳐 수집되었다. 자료들에 대한 공개재배포는 허용하지 않으므로 아래에 링크를 걸어두었고, 데이터에 관한 정보를 README.md에서 얻어 간단하게 정리해보았다. grouplens.org/datasets/movielens/ MovieLens GroupLens Research has collected and made available rating data sets from the MovieLens web site ( The data sets were collected over various periods of time, dependi..