https://light-tree.tistory.com/196
딥러닝 용어 정리, Knowledge distillation 설명과 이해
이 글은 제가 공부한 내용을 정리하는 글입니다. 따라서 잘못된 내용이 있을 수도 있습니다. 잘못된 내용을 발견하신다면 리플로 알려주시길 부탁드립니다. 감사합니다. Knowledge distillation 이란?
light-tree.tistory.com
[논문 리뷰] On Calibration of Modern Neural Network
본 논문은 딥러닝을 공부하면서 나로서는 한번도 생각해보지 못했던 점을 문제 삼으면서 현대의 신경망을 사용할 때 고려해야할 calibration에 대해 설명하고, 이를 해결하는 매우 간단한 temperature
velog.io
* 위 블로그 내용을 참고하여 정리한 글임.
Calibration이란?
The accuracy of predicted probability of model's ouput
예를 들어, 모델이 50% 정도의 신뢰도를 가지고 output을 줬을때, 그 output이 제대로 classification 된 정도가 실제로 50%가 된다면 모델은 잘 calibrated 되었다고 말함.
이는 모델의 예측값이 reliable and trustworthy 하다는 것을 뜻하기 때문에 매우 중요한 요소로 쓰임.
학습된 모델이 실제 얼마나 신뢰도를 가지는지를 판단하기 위함.
'데이터분석 > 딥러닝' 카테고리의 다른 글
LLM(Large Language Model) (1) | 2024.11.13 |
---|---|
GAN 모델이란? (2) | 2021.04.06 |
CNN으로 개와 고양이 분류하기 (1) | 2020.02.25 |
MNIST를 이용해 간단한 CNN만들기 (2) | 2020.02.12 |
배치학습 vs 온라인학습 (0) | 2020.02.12 |