일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 프로그래머스
- WSSS
- vscode
- docker
- docker exec
- numpy
- docker attach
- aiffel exploration
- AIFFEL
- 코크리
- cocre
- cs231n
- ssh
- GIT
- 도커
- 기초확률론
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- 사회조사분석사2급
- 티스토리챌린지
- 백신후원
- logistic regression
- CellPin
- 히비스서커스
- HookNet
- IVI
- Pull Request
- Jupyter notebook
- Decision Boundary
- 오블완
- airflow
Archives
- Today
- Total
목록pre padding (1)
히비스서커스의 블로그
[Tensorflow] RNN에서 padding 방법 (pre vs post)
RNN의 적용방법에는 다양한 방법이 있다. 이들 중 감성분류에 쓰이는 many to one 방법(빨간색)과 주어진 단어들을 토대로 작문에 쓰이는 many to many 방법(연두색)에서 padding 방식을 pre와 post 어느 것으로 하면 좋을지 직관적으로 생각해보았다. 먼저 padding을 RNN 에서 사용되는 의미로 간단히 말하자면 각각의 입력(token, sequence 등등)의 길이가 모두 같지 않기에 이를 맞춰주기 위해 0을 넣어주는 작업이라고 생각하면 좋다. 여기서 앞에서 0을 넣어주는 방식이 pre 방식이고 뒤에서 넣어주는 방식이 post방식이다. 아래에 예시 코드와 결과이다. # Padding from tensorflow.keras.preprocessing.text import Toke..
Programming/Python
2021. 1. 26. 22:42