딥러닝 KL-Divergence - Kullback-Leibler Divergence 두 분포 사이의 다름을 측정한다.(assymmetric이여서 거리라고 할 수는 없다.) 두 분포가 비슷할 수록 작은 값을 반환하고 두 분포가 같으면 KL-Divergence의 값은 0이다. DNN Optimization using KL-Divergence KL-Divergence를 minimize하는 방향으로 DNN을 Optimization을 할 수 있다. KL-Divergence는 두 분포간의 dissimilarity를 측정해주기 때문에 ground truth 확률분포와 DNN가 나타내는 확률분포간의 dissimilarity를 측정하고 이를 mimimize하도록 gradient descent를 해주면 된다. 728x90 공유하기 URL 복사카카오톡 공유페이스북 공유엑스 공유 게시글 관리 구독하기Reality is also a Pizza Contents 당신이 좋아할만한 콘텐츠 PCA 2022.06.23 Information & Entropy 2022.06.23 MLE(Maximum Likelihood Estimation) 2022.06.23 Autoencoder 2022.06.22 댓글 0 + 이전 댓글 더보기