반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- pip install
- 파이썬문법
- __call__
- __init__
- 가상환경
- torch.nn
- CNN
- pychram
- LSTM
- AI
- python
- 머신러닝
- 파이썬
- rnn
- tensorflow
- Anaconda
- vision transformer
- objectdetection
- wsl2
- python 문법
- ViT
- DeepLearning
- torch.nn.Module
- Deep learning
- 딥러닝
- pytorch
- docker
- ubuntu
- Torchvision
- 가상환경구축
Archives
- Today
- Total
목록컴퓨터비전/loss function (1)
인공지능을 좋아하는 곧미남
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bgPEAv/btrJlocKZGj/C4RYCuOimLiY8QOfnGBQV1/img.png)
어차피 reduce sum의 경우 N-dimension 의 loss tensor에 대해 각각 미분되어서 기울기가 넘어가니 그대로 backprop하는것과 동일하고, mean의 경우엔 element 갯수만큼 나누어져 평균값만큼 loss를 주겠다는 의미입니다. 평균을 치더라도 mse같은 일반적인 loss는 문제가 없지만 reduce sum으로 해야만 잘 동작하는 gaussian negative log likelihood와 같은 loss도 있습니다. 그리고 loss tensor중 원하는 부분에만 zero masking 후 reduce sum을 하게 되면 마스킹하지 않은 부분에만 loss가 들어가는 방식도 많이 사용되기 때문입니다, mean은 여기서 element 갯수만큼 나누어지다보니 말씀하신것처럼 정보손실이 ..
컴퓨터비전/loss function
2022. 8. 10. 11:52