반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- torch.nn
- 파이썬
- ubuntu
- pychram
- CNN
- Torchvision
- objectdetection
- torch.nn.Module
- LSTM
- 파이썬문법
- Anaconda
- 가상환경
- Deep learning
- 머신러닝
- 딥러닝
- 가상환경구축
- ViT
- AI
- tensorflow
- python
- pip install
- __init__
- pytorch
- wsl2
- python 문법
- rnn
- DeepLearning
- __call__
- docker
- vision transformer
Archives
- Today
- Total
목록머신러닝 (1)
인공지능을 좋아하는 곧미남
주성분분석(PCA)
주성분 분석(Principal Component Analysis, PCA)에 대해 알아보겠습니다. PCA는 차원 축소를 위한 방법론 중 하나이고, 고차원의 데이터를 저차원의 데이터로 표현할 수 있는 방법입니다. 1. PCA 정보 손실 2. PCA 최적화 함수 3. PCA 라그랑주함수(제약조건) 4. opencv의 contours point data를 가지고 pca를 통해 산출한 고유 벡터를 통해 데이터 분포의 방향 표현 알고리즘 설명 1. PCA 정보 손실 차원에 대한 내용을 추가한다면, 상기 그림에서 2D 데이터 분포에서 해당 분포를 가장 잘 표현할 수 있는 1D 벡터공간을 생성하는 것이 PCA의 목적이라고 생각하시면 됩니다. 하지만, 2D에 존재하는 데이터를 1D로 표현을 하면, 정보 손실이 발생합니..
머신러닝/차원축소
2022. 5. 31. 21:48