반응형
Notice
Recent Posts
Recent Comments
Link
250x250
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- pychram
- __call__
- 가상환경
- ViT
- AI
- Torchvision
- Deep learning
- wsl2
- Anaconda
- 머신러닝
- python
- 파이썬문법
- rnn
- docker
- LSTM
- ubuntu
- objectdetection
- vision transformer
- 가상환경구축
- tensorflow
- pytorch
- __init__
- pip install
- python 문법
- torch.nn.Module
- torch.nn
- CNN
- 딥러닝
- 파이썬
- DeepLearning
Archives
- Today
- Total
목록Paper Review (1)
인공지능을 좋아하는 곧미남
[Paper Review] TOKENFORMER: RETHINKING TRANSFORMER SCALINGWITH TOKENIZED MODEL PARAMETERS
안녕하세요. 오늘은 Transformer의 Layer 구조를 변형하여 Model Parameter를 Token으로 활용하여 모델의 확장성을 높이고, 학습 비용을 줄인 TOKENFORMER를 리뷰하겠습니다. 이름에서 부터 직관적으로 Transformer의 구조를 TOKEN화 한것 같은 느낌을 줍니다. Transformer 논문을 보고 오시면 이해가 쉽습니다.- 논문 관련 문서 -arXiv 30 Oct 2024. [Paper] [Page] [Github]- 목차 -1. Background2. Token-Parameter Attention(Pattention)3. Progressive Model Scaling4. Result1. BackgroundTransformer의 한계점: Linear projection..
Paper Review
2024. 11. 27. 14:27