반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 파이썬
- Deep learning
- objectdetection
- AI
- python 문법
- DeepLearning
- pychram
- docker
- 파이썬문법
- rnn
- pytorch
- vision transformer
- __call__
- tensorflow
- torch.nn
- python
- 머신러닝
- __init__
- LSTM
- torch.nn.Module
- wsl2
- ubuntu
- Anaconda
- 가상환경
- Torchvision
- ViT
- CNN
- 가상환경구축
- pip install
- 딥러닝
Archives
- Today
- Total
목록딥러닝 모델 확장 기술' (1)
인공지능을 좋아하는 곧미남
안녕하세요. 오늘은 Transformer의 Layer 구조를 변형하여 Model Parameter를 Token으로 활용하여 모델의 확장성을 높이고, 학습 비용을 줄인 TOKENFORMER를 리뷰하겠습니다. 이름에서 부터 직관적으로 Transformer의 구조를 TOKEN화 한것 같은 느낌을 줍니다. Transformer 논문을 보고 오시면 이해가 쉽습니다.- 논문 관련 문서 -arXiv 30 Oct 2024. [Paper] [Page] [Github]- 목차 -1. Background2. Token-Parameter Attention(Pattention)3. Progressive Model Scaling4. Result1. BackgroundTransformer의 한계점: Linear projection..
Paper Review
2024. 11. 27. 14:27