일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- aiffel exploration
- docker attach
- ssh
- logistic regression
- HookNet
- 기초확률론
- 백신후원
- 사회조사분석사2급
- 도커
- Decision Boundary
- numpy
- 히비스서커스
- vscode
- AIFFEL
- docker
- cs231n
- Pull Request
- 티스토리챌린지
- WSSS
- 오블완
- 코크리
- airflow
- 프로그래머스
- GIT
- IVI
- cocre
- docker exec
- Jupyter notebook
- Multi-Resolution Networks for Semantic Segmentation in Whole Slide Images
- CellPin
Archives
- Today
- Total
목록post padding (1)
히비스서커스의 블로그
[Tensorflow] RNN에서 padding 방법 (pre vs post)
RNN의 적용방법에는 다양한 방법이 있다. 이들 중 감성분류에 쓰이는 many to one 방법(빨간색)과 주어진 단어들을 토대로 작문에 쓰이는 many to many 방법(연두색)에서 padding 방식을 pre와 post 어느 것으로 하면 좋을지 직관적으로 생각해보았다. 먼저 padding을 RNN 에서 사용되는 의미로 간단히 말하자면 각각의 입력(token, sequence 등등)의 길이가 모두 같지 않기에 이를 맞춰주기 위해 0을 넣어주는 작업이라고 생각하면 좋다. 여기서 앞에서 0을 넣어주는 방식이 pre 방식이고 뒤에서 넣어주는 방식이 post방식이다. 아래에 예시 코드와 결과이다. # Padding from tensorflow.keras.preprocessing.text import Toke..
Programming/Python
2021. 1. 26. 22:42