일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Decision Boundary
- cs231n
- HookNet
- logistic regression
- Jupyter notebook
- ssh
- docker
- IVI
- 코크리
- CellPin
- numpy
- Pull Request
- vscode
- airflow
- 티스토리챌린지
- 백신후원
- aiffel exploration
- 히비스서커스
- WSSS
- 기초확률론
- 사회조사분석사2급
- AIFFEL
- 오블완
- GIT
- docker exec
- 프로그래머스
- docker attach
- 도커
- cocre
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- Today
- Total
목록분류 전체보기 (188)
히비스서커스의 블로그
※ 이 내용들은 전적으로stanford university의 CS231n 2017 5강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다.※ 이전 4장에서는 Backpropagation과 Neural Networks에 관하여배웠다. 2021/01/25 - [Programming/CS231n] - [lecture 4] Introduction to Neural Networks [lecture 4] Introduction to Neural Networks ※ 이 내용들은 전적으로 stanford university의 CS231n 2017 4강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전 3장에서는 Loss Function과 Opitmization을 살펴보았다. 2021/01/13 - [Progra..
기초확률론 네번째 포스팅으로 조건부확률, 곱셈법칙, 베이즈 정리에 대해 알아보겠습니다. 저번 시간에는 확률측도의 성질, 균등확률결과를 갖는 표본공간에 대해 알아보았습니다. 2021/01/22 - [Statistics/Probability_Theory] - [기초확률론 3] 확률측도의 성질, 균등확률결과를 갖는 표본공간 [기초확률론 3] 확률측도의 성질, 균등확률결과를 갖는 표본공간 기초확률론 세번째 포스팅으로 확률측도의 성질, 균등확률결과를 갖는 표본공간에 대해 알아보겠습니다. 전반적인 내용은충북대학교 최정배 강사님의 강의 내용을 참고하였음을 밝힙니다. 저 biology-statistics-programming.tistory.com 확률측도의 성질은 우리가 직관적으로 생각할 수 있는 것들과 같은 성질을 ..
오늘 오전 Fundermental 노드와 오후에 풀잎스쿨을 하며 모두 클래스와 모듈에 관한 이야기가 나왔고, 저녁에 Exploration 노드를 하며 코드에도 사용되었기에 개념을 한 번 정리해두어야 겠다는 생각이 들었다. 클래스 (주로 PascalCase 컨벤션으로 클래스명을 작성 ) 클래스는 프로그래밍으로 객체(=특정대상)을 찍어내기 위한 일종의 틀이다. 여러 개의 함수들이 클래스 안에서 정의될 수 있고 클래스에서 불러올 수 있다. 주의: 물론 함수 안에도 함수를 정의할 수 있지만, 함수 안의 함수는 소속된 함수 안에서 밖에 쓰이질 못한다. 클래스 안에는 데이터와 같은 속성(주로 변수)과 기능과 같은 메소드(주로 함수)가 존재한다. 하지만 클래스는 특정 개념만 표현할 뿐이고 인스턴스를 생성하여 객체로 ..
RNN의 적용방법에는 다양한 방법이 있다. 이들 중 감성분류에 쓰이는 many to one 방법(빨간색)과 주어진 단어들을 토대로 작문에 쓰이는 many to many 방법(연두색)에서 padding 방식을 pre와 post 어느 것으로 하면 좋을지 직관적으로 생각해보았다. 먼저 padding을 RNN 에서 사용되는 의미로 간단히 말하자면 각각의 입력(token, sequence 등등)의 길이가 모두 같지 않기에 이를 맞춰주기 위해 0을 넣어주는 작업이라고 생각하면 좋다. 여기서 앞에서 0을 넣어주는 방식이 pre 방식이고 뒤에서 넣어주는 방식이 post방식이다. 아래에 예시 코드와 결과이다. # Padding from tensorflow.keras.preprocessing.text import Toke..
※ 이 내용들은 전적으로 stanford university의 CS231n 2017 4강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전 3장에서는 Loss Function과 Opitmization을 살펴보았다. 2021/01/13 - [Programming/CS231n] - [Lecture 3] Loss Functions [Lecture 3] Loss Functions ※ 이 내용들은 전적으로 stanford university의 CS231n 2017 3강 강의 내용을 기반으로 작성하였음을 먼저 밝힙니다. ※ 이전에 공부한 내용에서는 Linear classification의 모델의 구조를 살펴보았다. 20. biology-statistics-programming.tistory.com 2021..
기초확률론 세번째 포스팅으로 확률측도의 성질, 균등확률결과를 갖는 표본공간에 대해 알아보겠습니다. 저번 시간에는 확률측도와 확률, 확률측도의 부여방법에 대해 알아보았습니다. 2021/01/15 - [Statistics/Probability_Theory] - [기초확률론 2] 확률측도와 확률, 확률측도의 부여방법 [기초확률론 2] 확률측도와 확률, 확률측도의 부여방법 ※ 이 내용은 충북대학교 정보통계학과 2016년도 최정배 강사님의 기초확률론 수업 내용을 정리한 것을 토대로 재구성해보았음을 밝힙니다. ※ 저번 시간에는 확률실험과 표본공간, 사건에 biology-statistics-programming.tistory.com 확률측도를 부여할 때 이산표본공간일 경우와 연속표본공간일 경우를 달리 해주어야 했는데..
음성분류를 시작하기 앞서 아날로그 데이터가 어떻게 디지털 데이터로 변환될 수 있는지 알아보자. 아날로그 데이터는 연속데이터이고 디지털 데이터는 이진 데이터로 비연속적이다. 따라서, 이 과정에서는 왜곡이 일어날 수 밖에 없는데 표본화, 양자화, 부호화 과정을 통해 간단히 알아보자. 표본화: 아날로그 데이터에서 일정 시간 간격을 두고 표본을 채취하는 방법이다. => 이 과정은 사인 그래프를 히스토그램으로 나타낼 때를 연상하면 도움이 된다. 양자화: 표본화 과정에서 뽑은 표본이 소수점을 무한히 갖는 경우 컴퓨터는 그것을 다 표현할 수 없기 때문에 근사값을 구한다. => 이 과정에서 왜곡이 생긴다!! 부호화: 표본화와 양자화를 거친 디지털 정보를 0과 1의 이진수로 표현하는 과정이다. 자세한 설명은 이곳에서 확..
쪼이번 포스팅은 모두의 연구소 김승일 소장님의 쫄지말자 딥러닝 첫번째 강연을 토대로 정리한 내용과 소감을 적은 글로 강연의 내용과 약간 다를 수 있습니다. modulabs.co.kr/ 모두의연구소 Sharing Value Together 열린 연구를 통한 AI 기술의 진보. 자기주도적으로 연구하는 멤버십 연구원들이 가득한 지식 공유 기반의 모두의연구소 연구모임 을 운영하고 있습니다. 하고싶은 연구주제가 modulabs.co.kr 하고 싶은 연구주제가 있다면 누구든지 연구실을 만들 수 있고, 재밌어 보이는 연구실을 찾았다면, 누구나 연구실에 참여할 수 있는, 모두 모여 함께 연구하는 세상에 없던 단 하나의 열린 연구소, 모두의 연구소. 오늘은 모두의 연구소 김승일 소장님께서' 쫄지말자 딥러닝 - 데이터의 ..