Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Anaconda
- CNN
- 가상환경
- 컴퓨터비전
- DeepLearning
- rnn
- 머신러닝
- Torchvision
- torch.nn
- NumPy
- ViT
- 딥러닝
- vsC
- __call__
- objectdetection
- vision transformer
- python
- torch.nn.Module
- 파이썬문법
- tensorflow
- segmentation
- pychram
- LSTM
- torch
- 가상환경구축
- Deep learning
- 파이썬
- __init__
- pytorch
- AI
Archives
- Today
- Total
목록convolutionalneuralnetwork (1)
인공지능을 좋아하는 곧미남
Pooling의 Padding에 대하여!
(Input Size – Pool Size + 2*Padding)/Stride + 1 Conv Output data size = (Input Size – Filtersize + 2*Padding)/Stride + 1 1. conv layer1을 거친 L1 shape의 사이즈는 상기 공식에 따라서 (P = Padding="SAME") (28-3 + 2*P)/1 + 1 = 28 즉, P = 1이되어 입력과 출력의 사이즈를 같게 해준다. Pooling Output data size = (Input Size – Kernelsize + 2*Padding)/Stride + 1 2. MaxPooling Layer를 거친 L1 shape은 상기 공식에 따라서 (28-2 + 2*P)/2 + 1 = 14 P = 0이 된다..
인공지능 개발자의 기본 소양
2021. 2. 15. 16:38