쿨백-라이블러 발산 문서 원본 보기
←
쿨백-라이블러 발산
둘러보기로 이동
검색으로 이동
문서 편집 권한이 없습니다. 다음 이유를 확인해주세요:
요청한 명령은 다음 권한을 가진 사용자에게 제한됩니다:
사용자
.
문서의 원본을 보거나 복사할 수 있습니다.
{{위키데이터 속성 추적}} '''쿨백-라이블러 발산'''(Kullback–Leibler divergence, '''KLD''')은 두 [[확률분포]]의 차이를 계산하는 데에 사용하는 함수로, 어떤 이상적인 분포에 대해, 그 분포를 근사하는 다른 분포를 사용해 샘플링을 한다면 발생할 수 있는 [[정보 엔트로피]] 차이를 계산한다. 상대 엔트로피(relative entropy), 정보 획득량(information gain), 인포메이션 다이버전스(information divergence)라고도 한다. 정보이론에서는 상대 엔트로피, 기계학습의 [[결정 트리]]에서는 정보 획득량을 주로 사용한다. 쿨백-라이블러 발산은 비대칭으로, 두 값의 위치를 바꾸면 함수값도 달라진다. 따라서 이 함수는 [[거리 함수]]는 아니다. == 정의 == 두 확률변수에 대한 확률분포 <math>P, Q</math>가 있을 때, 두 분포의 쿨백-라이블러 발산은 다음과 같이 정의된다. * [[이산확률변수]]의 경우: <math>D_{\mathrm{KL}}(P\|Q) = \sum_i P(i) \log \frac{P(i)}{Q(i)}</math> * [[연속확률변수]]의 경우: <math>D_{\mathrm{KL}}(P\|Q) = \int_{-\infty}^\infty p(x) \log \frac{p(x)}{q(x)} dx</math>, 여기에서 <math>p, q</math>는 두 확률분포의 [[확률 밀도 함수]]를 의미한다. 또는, 측도를 사용하여 더 일반적으로 표현할 수도 있다. 두 [[확률측도]] <math>P, Q</math>가 있고 <math>Q</math>는 <math>P</math>에 대해 [[절대수렴]]할 경우, 두 분포의 쿨백-라이블러 발산은 다음과 같이 정의된다. :<math>D_{\mathrm{KL}}(P\|Q) = -\int_X \log \frac{d Q}{d P} dP</math> 여기에서 <math>\frac{d Q}{d P}</math>는 [[라돈-니코딤 도함수]](Radon–Nikodym derivative)이다. == 의미 == 쿨백-라이블러 발산은 어떠한 확률분포 <math>P</math>가 있을 때, 샘플링 과정에서 그 분포를 근사적으로 표현하는 확률분포 <math>Q</math>를 <math>P</math> 대신 사용할 경우 엔트로피 변화를 의미한다. 따라서, 원래의 분포가 가지는 엔트로피 <math>H(P)</math>와 <math>P</math> 대신 <math>Q</math>를 사용할 때의 [[교차 엔트로피]](cross entropy) <math>H(P, Q)</math>의 차이를 구하면, :<math>D_{\mathrm{KL}}(P\|Q) = H(P, Q) - H(P)</math> :<math>= (-\sum_x p(x) \log q(x)) - (-\sum_x p(x) \log p(x))</math> 로, 원래 정의했던 식과 같은 결과가 나온다. == 같이 보기 == * [[교차 엔트로피]] * [[정보 이론 및 측정 이론]] {{전거 통제}} [[분류:통계 이론]] [[분류:정보 엔트로피]]
이 문서에서 사용한 틀:
틀:위키데이터 속성 추적
(
원본 보기
)
틀:전거 통제
(
원본 보기
)
쿨백-라이블러 발산
문서로 돌아갑니다.
둘러보기 메뉴
개인 도구
로그인
이름공간
문서
토론
한국어
보기
읽기
원본 보기
역사 보기
더 보기
검색
둘러보기
대문
최근 바뀜
임의의 문서로
미디어위키 도움말
특수 문서 목록
도구
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보