반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- pip install
- wsl2
- torch.nn.Module
- python
- LSTM
- 딥러닝
- 파이썬
- CNN
- __init__
- __call__
- pytorch
- 파이썬문법
- tensorflow
- python 문법
- 머신러닝
- docker
- ViT
- Torchvision
- Deep learning
- torch.nn
- pychram
- objectdetection
- DeepLearning
- rnn
- Anaconda
- 가상환경
- ubuntu
- vision transformer
- AI
- 가상환경구축
Archives
- Today
- Total
목록tokenformer (1)
인공지능을 좋아하는 곧미남
[Paper Review] TOKENFORMER: RETHINKING TRANSFORMER SCALINGWITH TOKENIZED MODEL PARAMETERS
안녕하세요. 오늘은 Transformer의 Layer 구조를 변형하여 Model Parameter를 Token으로 활용하여 모델의 확장성을 높이고, 학습 비용을 줄인 TOKENFORMER를 리뷰하겠습니다. 이름에서 부터 직관적으로 Transformer의 구조를 TOKEN화 한것 같은 느낌을 줍니다. Transformer 논문을 보고 오시면 이해가 쉽습니다.- 논문 관련 문서 -arXiv 30 Oct 2024. [Paper] [Page] [Github]- 목차 -1. Background2. Token-Parameter Attention(Pattention)3. Progressive Model Scaling4. Result1. BackgroundTransformer의 한계점: Linear projection..
Paper Review
2024. 11. 27. 14:27