반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- vision transformer
- AI
- Anaconda
- 가상환경
- __call__
- __init__
- pip install
- LSTM
- Deep learning
- CNN
- objectdetection
- wsl2
- 가상환경구축
- DeepLearning
- python 문법
- 파이썬
- ubuntu
- pytorch
- tensorflow
- 파이썬문법
- pychram
- rnn
- 머신러닝
- Torchvision
- docker
- torch.nn.Module
- 딥러닝
- torch.nn
- python
- ViT
Archives
- Today
- Total
목록순환구조 (1)
인공지능을 좋아하는 곧미남
[Vision Transformer] RNN, LSTM 이론
오늘은 딥러닝에 적용할 수 있는 순환구조를 이해하기 위한 RNN, LSTM 이론을 알아보겠습니다. 1. RNN-순환신경망 (Recurrent Neural Network) 1) RNN 순환구조: RNN의 순환구조를 이해하기 편하게 아래 그림을 빗대어 설명하면, RNN CELL은 초록색의 상자로 표현되는데, 첫번째 INPUT X1를 받아와 Hidden State인 RNN CELL을 업데이트하고 Y1을 출력하고 그 다음 시퀀스(i=2)의 Hidden State RNN CELL에 정보가 전달된다. 이 과정을 마지막 시퀀스까지 반복하는 것이 RNN의 순환구조이다. (여기서 Output은 Many to Many, Many to One Task에 따라 다르고 출력하고 싶은 시점의 출력을 얻을 수 있다.) 수학적 Fo..
컴퓨터비전/Vision Transformer
2022. 1. 4. 17:09