Show pageOld revisionsBacklinksBack to top This page is read only. You can view the source, but not change it. Ask your administrator if you think this is wrong. # Kullback-Leibler Divergence `Kullback-Leibler Divergence`는 두 모델이 얼마나 비슷하게 생겼는지를 알기 위한 척도인데, 제시한 모델이 실제 모델의 각 item들의 [[정보량]]을 얼마나 잘 보존하는지를 측정한다. 즉, 원본 데이터가 가지고 있는 정보량을 잘 보존 할 수록 원본 데이터와 비슷한 모델이라는 것이다. ## 출처 - https://hyeongminlee.github.io/post/prob002_kld_jsd/ open/kld.txt Last modified: 2024/10/05 06:15by 127.0.0.1