검색 결과
둘러보기로 이동
검색으로 이동
- {{DISPLAYTITLE:''k''-평균 알고리즘}}<!--※ [[위키백과:제목의 기술적 한계]] --> ...학습)|자율 학습]]의 일종으로, 레이블이 달려 있지 않은 입력 데이터에 레이블을 달아주는 역할을 수행한다. 이 알고리즘은 [[EM 알고리즘]]을 이용한 클러스터링과 비슷한 구조를 가지고 있다. ...51 KB (2,580 단어) - 2024년 8월 19일 (월) 15:11
- ...''우체국 문제'''라고 명명했다. 이 문제의 직접적인 일반화 문제로써는, ''k'' 개의 가장 가까운 점을 찾는 [[K-최근접 이웃 알고리즘]]이 있다. * [[통계적 분류]]- [[K-최근접 이웃 알고리즘]] 참조 ...28 KB (1,412 단어) - 2025년 3월 13일 (목) 15:19
- === 클러스터 구분의 최적화 규준 === === EM(Expectation Maximization)알고리즘 === ...41 KB (2,215 단어) - 2024년 12월 20일 (금) 14:29
- ...상블 학습법|앙상블 학습 방법]]의 일종으로, 훈련 과정에서 구성한 다수의 [[결정 트리]]로부터 부류(분류) 또는 평균 예측치(회귀 분석)를 출력함으로써 동작한다. * 간편하고 빠른 학습 및 테스트 알고리즘 ...39 KB (2,261 단어) - 2022년 8월 23일 (화) 07:20
- ...일|[[올드페이스풀 간헐천]] 분화 데이터. 데이터가 정규분포 [[혼합 모델]]에서 관측되었다고 가정하고, 기댓값 최대화 [[클러스터 분석]]을 이용해 매개변수들을 추정하는 과정이다. 기댓값 최대화 과정이 반복됨에 따라 매개변수들이 수렴하고 두 개의 군집이 나타나는 것을 볼 '''기댓값 최대화 알고리즘'''({{lang|en|expectation-maximization algorithm}}, 약자 EM 알고리즘)은 관측되지 않는 잠재변수에 의존하는 확률 모델에서 [[최대가능도]]({{lang|en|maximum likelihood}})나 [[최 ...51 KB (4,289 단어) - 2025년 3월 13일 (목) 15:03
- ...,3)이고, (0.878, 0.478)방향으로 3, 이와 수직한 방향으로 1의 표준편차를 가지는 [[다변량 정규분포]]에 대한 주성분 분석. 화살표의 길이는 [[공분산#공분산행렬|공분산행렬]] 고윳값의 제곱근에 해당하며, 고유 벡터의 끝점이 평균점에 위치한 채로 각 주성분의 '''주성분 분석'''(主成分分析, Principal component analysis; PCA)은 고차원의 데이터를 저차원의 데이터로 환원시키는 기법을 ...63 KB (3,187 단어) - 2025년 3월 13일 (목) 13:04
- # 조정이 가능한 가중치들의 집합 즉, 학습 [[알고리즘]]에 의해 조정이 가능한 숫자로 표현된 매개변수로 구성되어있다. ...Analysis and Machine Intelligence, vol. 31, no. 5, 2009.</ref> 2009년의 국제문서 분석 및 인식 컨퍼런스(ICDAR)의 필기 인식 부분에서 학습하게 될 세 가지 언어에 대한 아무런 사전 정보가 주어지지 않았음에도 불구하고 ...61 KB (2,389 단어) - 2025년 3월 13일 (목) 11:46