일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 가상환경구축
- pychram
- tensorflow
- vision transformer
- CNN
- 파이썬
- Torchvision
- pytorch
- rnn
- Deep learning
- Anaconda
- docker
- __call__
- AI
- objectdetection
- 딥러닝
- ViT
- 파이썬문법
- 머신러닝
- python
- ubuntu
- torch.nn.Module
- torch.nn
- pip install
- wsl2
- LSTM
- DeepLearning
- git pull
- 가상환경
- __init__
- Today
- Total
목록컴퓨터비전/Vision Transformer (2)
인공지능을 좋아하는 곧미남
오늘은 이미지 및 영상을 활용할 수 있는 ConvLSTM을 알아보겠습니다. ConvLSTM은 저번 포스팅에서 설명드린 일반 LSTM이 아닌 FC LSTM 구조에서 Convolution 연산을 적용한 사례로 FC LSTM부터 간단히 알아보도록 하겠습니다. 오늘의 내용은 아래 목차와 같습니다. 1. FC LSTM 설명 2. ConvLSTM 설명 1. FC LSTM (Fully-Connected Long Short-Term Memory) FC-LSTM은 LSTM에서 발전한 모델입니다. 구조적으로 변경된 내용이 있는데요. 기존의 LSTM에는 Long Term Memory의 정보를 가진 Cell State의 정보를 Hidden Layer에 사용하지 않았습니다. 하지만, FC-LSTM은 이 Cel..
오늘은 딥러닝에 적용할 수 있는 순환구조를 이해하기 위한 RNN, LSTM 이론을 알아보겠습니다. 1. RNN-순환신경망 (Recurrent Neural Network) 1) RNN 순환구조: RNN의 순환구조를 이해하기 편하게 아래 그림을 빗대어 설명하면, RNN CELL은 초록색의 상자로 표현되는데, 첫번째 INPUT X1를 받아와 Hidden State인 RNN CELL을 업데이트하고 Y1을 출력하고 그 다음 시퀀스(i=2)의 Hidden State RNN CELL에 정보가 전달된다. 이 과정을 마지막 시퀀스까지 반복하는 것이 RNN의 순환구조이다. (여기서 Output은 Many to Many, Many to One Task에 따라 다르고 출력하고 싶은 시점의 출력을 얻을 수 있다.) 수학적 Fo..