Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- NumPy
- LSTM
- segmentation
- 딥러닝
- CNN
- objectdetection
- DeepLearning
- python
- 컴퓨터비전
- 파이썬문법
- rnn
- Deep learning
- vsC
- torch.nn
- 머신러닝
- 파이썬
- torch.nn.Module
- Torchvision
- tensorflow
- pychram
- Anaconda
- __init__
- ViT
- __call__
- AI
- pytorch
- 가상환경
- vision transformer
- 가상환경구축
- torch
Archives
- Today
- Total
목록순환구조 (1)
인공지능을 좋아하는 곧미남
[Vision Transformer] RNN, LSTM 이론
오늘은 딥러닝에 적용할 수 있는 순환구조를 이해하기 위한 RNN, LSTM 이론을 알아보겠습니다. 1. RNN-순환신경망 (Recurrent Neural Network) 1) RNN 순환구조: RNN의 순환구조를 이해하기 편하게 아래 그림을 빗대어 설명하면, RNN CELL은 초록색의 상자로 표현되는데, 첫번째 INPUT X1를 받아와 Hidden State인 RNN CELL을 업데이트하고 Y1을 출력하고 그 다음 시퀀스(i=2)의 Hidden State RNN CELL에 정보가 전달된다. 이 과정을 마지막 시퀀스까지 반복하는 것이 RNN의 순환구조이다. (여기서 Output은 Many to Many, Many to One Task에 따라 다르고 출력하고 싶은 시점의 출력을 얻을 수 있다.) 수학적 Fo..
Computer Vision .w Deeplearning/Vision Transformer
2022. 1. 4. 17:09