Kullback–Leibler divergence - 두 확률분포의 차이를 계산하는 데에 사용하는 함수- 두 확률변수에 대한 확률분포 {\displaystyle P,Q}가 있을 때, 두 분포의 KL divergence는 다음과 같이 정의 - KL divergence는 어떠한 확률분포 {\displaystyle P}가 있을 때, 그 분포를 근사적으로 표현하는 확률분포 {\displaystyle Q}를 {\displaystyle P} 대신 사용할 경우 엔트로피 변화를 의미즉, 의 분포를 사용하고 싶은데 모를 때, 분포로 추정하기 위해 사용 결국, ( 대신 를 사용할 때의 cross entropy)와 (원래의 분포가 가지는 entropy)의 차이는 다음과 같으며, 이는 과 동일{\displaystyle D_{..