일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 가상환경
- tensorflow
- Torchvision
- ubuntu
- 머신러닝
- objectdetection
- Anaconda
- AI
- CNN
- torch.nn.Module
- rnn
- python 문법
- wsl2
- vision transformer
- __init__
- ViT
- 파이썬
- __call__
- Deep learning
- pychram
- 파이썬문법
- pip install
- python
- LSTM
- pytorch
- 가상환경구축
- DeepLearning
- torch.nn
- docker
- 딥러닝
- Today
- Total
목록전체 글 (66)
인공지능을 좋아하는 곧미남
오늘은 Python에서 사용되는 OrderedDict를 딥러닝 학습 모델을 구현할때 어디에 사용되는지 알아보겠습니다. 그리고 일반화해서 어떤 경우에 사용할 수 있을지 인사이트를 얻어보겠습니다. 우선, 제가 준비한 내용은 아래 INDEX와 같습니다. 1. OrderedDict에 대한 내용 정리 2. layer의 parameters를 orderdict로 전달해주기.1. OrderedDict에 대한 내용 정리Collections 모듈의 클래스로 존재하는 OrderedDict의 역할은 Dictionary의 데이터 순서를 보장해주는 역할을 합니다. 일반적인 Dictionary는 저장되는 순서를 보장해주지 않습니다. 2. layer의 parameters를 orderdict로 전달해주기.4개의 Feature의 p..
오늘은 간단히 pytorch에서 제공하는 대표적인 모델 구현에 사용하는 nn.Module이나 기타 다른 모델에서 input data를 손 쉽게 전달할 수 있게 만든 def forward()에 관해 알아보겠습니다. 이건 앞전에 제가 python 문법인 "__call__" 설명 게시물을 한번 보고 오시면 도움이 되실겁니다. 오늘 내용은 아래 목차와 같습니다. 1. "def forward()"의 역할 2. 어떻게 pytorch에서 "def forward()"를 구현했는가?1. "def forward()"의 역할우선 def forward(self, x)의 메커니즘을 알기위해서는 python의 "__call__"과 클래스 상속에 관한 내용을 숙지해야합니다. 제 블로그 게시물에 "__call__"과 클래스 상속 ..
Image Feature를 학습하기 위해 BackBone으로 사용되는 많은 모델들이 있습니다. 그 중 ResNet50 구조에서 원하는 layer에서 feature map을 추출할 수 있는 코드를 pytorch를 이용해 구현해보겠습니다. 최종적인 목표는 Multi Layer의 Feature를 사용해서 Image Resolution(Scale)에 강건한 모델을 만들고 싶어 이런 방법을 생각해보았습니다. 오늘의 내용은 아래의 목차와 같습니다. 1. Multi-Scale를 사용하는 이유 및 장점 2. ResNet50 구조 3. ResNet50 구조에서 원하는 Layer의 Feature Map을 추출 4. 내용 고찰 정리1. Multi-Scale를 사용하는 이유 및 장점Feature pyramid networ..
오늘은 pytorch에서 제공하는 torchvision.models.resnet50 기준으로 ResNet의 구현내용을 알아보겠습니다. 오늘의 내용은 아래 목차와 같습니다. 1. ResNet Contribution 2. ResNet Layer 구성 3. 구현 코드 설명 1. ResNet Contribution 우선, ResNet은 Input Image를 Deep한 Layer 구성을 통해 Feature를 찾는 역할을 합니다. 하지만 Layer 구성이 깊어지면 깊어질수록 좋지 않은 결과를 얻게 되었습니다. 이런 내용이 발생하는 이유는 학습 신경망에서 Back Propagation을 할때 weight에 활성화 함수의 편미분을 구해 그 값을 곱해주는 연산과정이 있습니다. 이때 첫 번째 layer..
함수나 클래스가 받은 여러개의 인자들을 하나의 객체로 관리 시키는것이 "Packing" 입니다. "Packing"에는 두 가지 방법이 있습니다. 인자를 "Packing"하는 방법과 키워드를 "Packing"하는 방법입니다. 그 반대로 여러개의 인자들을 포함하고 있는 하나의 객체를 풀어주는 것이 "Unpacking"입니다. 마찬가지로 "Unpacking"에도 두 가지 방법이 있습니다. 인자를 "Unpacking"하는 방법과 키워드를 "Unpacking"하는 방법입니다. 오늘의 내용은 아래 목차와 같습니다. 1. 인자를 "Packing"하는 방법 2. 키워드를 "Packing"하는 방법 3. 인자를 "Unpacking"하는 방법 4. 키워드를 "Unpacking"하는 방법 5. 고찰 및 딥러닝 모델 구축에..
오늘은 딥러닝 아키텍쳐를 구현할때 여러 Layer를 순서대로 층을 구성할 수 있는 방법인nn.Sequential 클래스에 관해 알아보겠습니다.제가 준비한 내용은 아래와 같습니다. 1. nn.Sequential의 목적 2. nn.Sequential의 사용방법 3. nn.Sequential에서 원하는 layer 불러오기. 4. 내용 고찰1. nn.Sequential의 목적 - Multi Layer 구성을 만들기 위해 사용2. nn.Sequential의 사용방법 - 코딩 시 표현법은 총 두 가지입니다. 1) layer마다 nn.Sequential Instance 부여하기 self.layer1 = nn.Sequential( ConvLSTM(in_channels=num..
python 문법 중 setattr()와 getattr()에 관해 알아보겠습니다. 우선 setattr()와 getattr()는 "__builtin__" module에 포함된 function이며 python의 내장함수이다. 오늘의 내용은 setattr()와 getattr()를 이용한 Deep Learning model layer를 구성하는 방법을 간략히 설명하겠습니다. 오늘의 내용은 아래의 목차와 같습니다. 1. setattr()의 사용법 및 역할 2. getattr()의 사용법 및 역할 3. DNN Layer 구성 코드 설명1. setattr(object, name, value)의 사용법 및 역할 - object에 존재하는 속성의 값을 바꾸거나, 새로운 속성을 생성하여 값을 부여할수있습니다. ..
오늘은 pytorch, tensorflow, numpy에서 각 Tensor, Tensor, Array의 Dimension을 다루는 함수들을 알아보겠습니다. 오늘의 내용은 아래 목차와 같습니다. 해당 내용은 지속적으로 업데이트 예정입니다. 1. pytorch function 2. tensorflow function 3. numpy function 4. 유사한 function 모음 표 1. pytorch function 1) torch.tensor(x).unsqueeze(i) - x의 tensor shape에서 원하는 i 자리에 1의 값을 가지는 dimension 추가. - ex) x = 2) 2. tensorflow function 1) tf.expand_dims(x, axis=i) - ..