반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 딥러닝
- docker
- CNN
- Torchvision
- torch.nn.Module
- torch.nn
- objectdetection
- AI
- vision transformer
- ViT
- __init__
- pip install
- LSTM
- tensorflow
- 머신러닝
- ubuntu
- python
- wsl2
- Deep learning
- 파이썬문법
- 가상환경구축
- 가상환경
- pychram
- __call__
- rnn
- DeepLearning
- python 문법
- 파이썬
- Anaconda
- pytorch
Archives
- Today
- Total
목록트랜스포머 모델 (1)
인공지능을 좋아하는 곧미남
안녕하세요. 오늘은 Transformer의 Layer 구조를 변형하여 Model Parameter를 Token으로 활용하여 모델의 확장성을 높이고, 학습 비용을 줄인 TOKENFORMER를 리뷰하겠습니다. 이름에서 부터 직관적으로 Transformer의 구조를 TOKEN화 한것 같은 느낌을 줍니다. Transformer 논문을 보고 오시면 이해가 쉽습니다.- 논문 관련 문서 -arXiv 30 Oct 2024. [Paper] [Page] [Github]- 목차 -1. Background2. Token-Parameter Attention(Pattention)3. Progressive Model Scaling4. Result1. BackgroundTransformer의 한계점: Linear projection..
Paper Review
2024. 11. 27. 14:27