반응형
Notice
Recent Posts
Recent Comments
Link
250x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 딥러닝
- Deep learning
- __init__
- pychram
- vision transformer
- __call__
- Anaconda
- torch.nn
- 파이썬문법
- rnn
- ubuntu
- AI
- tensorflow
- pip install
- ViT
- docker
- 가상환경구축
- 가상환경
- python
- DeepLearning
- wsl2
- torch.nn.Module
- objectdetection
- LSTM
- python 문법
- pytorch
- 머신러닝
- 파이썬
- CNN
- Torchvision
Archives
- Today
- Total
목록Paper Review (1)
인공지능을 좋아하는 곧미남
[Paper Review] TOKENFORMER: RETHINKING TRANSFORMER SCALINGWITH TOKENIZED MODEL PARAMETERS
안녕하세요. 오늘은 Transformer의 Layer 구조를 변형하여 Model Parameter를 Token으로 활용하여 모델의 확장성을 높이고, 학습 비용을 줄인 TOKENFORMER를 리뷰하겠습니다. 이름에서 부터 직관적으로 Transformer의 구조를 TOKEN화 한것 같은 느낌을 줍니다. Transformer 논문을 보고 오시면 이해가 쉽습니다.- 논문 관련 문서 -arXiv 30 Oct 2024. [Paper] [Page] [Github]- 목차 -1. Background2. Token-Parameter Attention(Pattention)3. Progressive Model Scaling4. Result1. BackgroundTransformer의 한계점: Linear projection..
Paper Review
2024. 11. 27. 14:27