검색 결과
둘러보기로 이동
검색으로 이동
문서 제목 일치
- ...라벨과 관련있는 특징들의 논리곱을 나타낸다. 결정 트리 중 목표 변수가 연속하는 값, 일반적으로 [[실수]]를 가지는 것은 [[회귀 트리]]라 한다. ...다만, 데이터 마이닝의 결과로서의 분류 트리는 의사 결정 분석의 입력 값으로 사용될 수 있다. 이 페이지는 데이터 마이닝 분야에서의 결정 트리를 주로 다룬다. ...20 KB (773 단어) - 2024년 6월 3일 (월) 05:34
문서 내용 일치
- ...이득은 [[쿨백-라이블러 발산]](Kullback Leibler Divergence,KLD)의 동의어이다. 그러나 [[결정 트리|의사 결정 나무]]의 맥락에서 이 용어는 때때로 상호 정보와 동의어로 사용되기도 하는데, 이것은 [[상호의존정보]]와 동의어로 사용되기도 한다. ...할 속성의 기본 시퀀스를 정의하는 데 사용할 수 있다. 이러한 시퀀스 (각 단계에서 이전 속성 조사의 결과에 따라 다름)를 의사 결정 트리 라고한다. 일반적으로 상호 정보가 높은 속성은 다른 속성보다 선호되어야 한다. ...4 KB (147 단어) - 2023년 12월 15일 (금) 08:09
- * [[결정 트리]] ...2 KB (43 단어) - 2025년 3월 3일 (월) 07:53
- ...n), 인포메이션 다이버전스(information divergence)라고도 한다. 정보이론에서는 상대 엔트로피, 기계학습의 [[결정 트리]]에서는 정보 획득량을 주로 사용한다. ...3 KB (158 단어) - 2024년 6월 3일 (월) 06:31
- ...라벨과 관련있는 특징들의 논리곱을 나타낸다. 결정 트리 중 목표 변수가 연속하는 값, 일반적으로 [[실수]]를 가지는 것은 [[회귀 트리]]라 한다. ...다만, 데이터 마이닝의 결과로서의 분류 트리는 의사 결정 분석의 입력 값으로 사용될 수 있다. 이 페이지는 데이터 마이닝 분야에서의 결정 트리를 주로 다룬다. ...20 KB (773 단어) - 2024년 6월 3일 (월) 05:34
- ...즘]]이다. 또한 배깅은 [[분산]]을 줄이고 [[과적합]]({{lang|en|overfitting}})을 피하도록 해준다. [[결정 트리 학습법]]이나 [[랜덤 포레스트]]에만 적용되는 것이 일반적이기는 하나, 그 외의 다른 방법들과 함께 사용할 수 있다. ...3 KB (154 단어) - 2024년 5월 16일 (목) 07:55
- ...[[결정 문제]]는 '''해밀턴 순환 문제'''라고 하며, 역시 [[NP-완전]] 문제이다. [[유향 그래프]]에 대한 마찬가지 [[결정 문제]] 역시 [[NP-완전]] 문제이다. * [[나무 (그래프 이론)|트리]](Tree) 그래프 ...6 KB (339 단어) - 2024년 5월 18일 (토) 11:45
- ...[분류]], [[회귀 분석]] 등에 사용되는 [[앙상블 학습법|앙상블 학습 방법]]의 일종으로, 훈련 과정에서 구성한 다수의 [[결정 트리]]로부터 부류(분류) 또는 평균 예측치(회귀 분석)를 출력함으로써 동작한다. 랜덤 포레스트는 다수의 결정 트리들을 학습하는 앙상블 방법이다. 랜덤 포레스트는 검출, 분류, 그리고 회귀 등 다양한 문제에 활용되고 있다. ...39 KB (2,261 단어) - 2022년 8월 23일 (화) 07:20
- [[그래프 이론]]에서 '''나무 그래프'''({{llang|en|tree graph|트리 그래프}}) 또는 단순히 '''나무'''는 [[순환 (그래프 이론)|순환]]을 갖지 않는 [[연결 그래프]]이다. * [[결정 트리]] ...14 KB (992 단어) - 2025년 3월 3일 (월) 08:16
- ...복잡성'''을 측정하는 몇 가지 방법을 가지고 있다. 이 문서에서는 그 중 주 공간 복잡성, 게임 트리 크기, 의사결정 복잡성, 게임 트리 복잡성, 계산 복잡성이라는 5가지에 분야에 대해 설명한다. === 게임 트리 크기 === ...23 KB (1,813 단어) - 2024년 12월 18일 (수) 06:00
- 마찬가지로 위의 주장은 트리 자료구조의 병합에도 유의하며 다음 장에서 기술하였다. 첫 번째는 ''유니온 바이 랭크''(union by rank) 방법으로 항상 작은 트리를 큰 트리 루트에 붙이는 방법이다. 트리의 깊이(depth)가 실행 시간에 영향을 주기 때문에, 깊이가 적은 트리를 깊이가 더 깊은 트리의 루트 ...16 KB (967 단어) - 2024년 5월 16일 (목) 14:51
- | 상수 시간 || || ''O''(1) || 10 || 정수(이진수로 표현되는)가 짝수이거나 홀수인지 결정 ...sup>) where 0 < c < 1 || ''n<sup>1/2</sup>'', ''n<sup>2/3</sup>'' || [[k차원 트리]] 탐색 ...32 KB (1,049 단어) - 2025년 1월 11일 (토) 12:45
- ...정 트리]] 모델에서 정렬의 하계로 증명되었다. 그러나 이 모델에서 볼록 껍질은 계산될 수 없다. 정렬은 또한 계산의 [[대수적 결정 트리]]모델 에서도 Ω(''n'' log ''n'') 시간을 요구하며, 이 모델은 볼록 껍질에 조금 더 적합하다. 그러나 이 모델에서도 볼록 ...15 KB (472 단어) - 2022년 6월 30일 (목) 09:05
- ...트리 학습법과 함께 사용되었을 때, AdaBoost 알고리즘의 각 단계에서 얻을 수 있는 각 훈련 샘플의 상대적 난이도에 대한 정보가 트리 성장 알고리즘에 반영되어 트리가 분류하기 더 어려운 경우에 집중되는 경향이 있다. ...))</math>와 같은 값의 가중치가 그 샘플에 배정된다. 이러한 가중치는 약한 학습기의 훈련에 영향을 미칠 수 있는데, 예를 들어 결정 트리는 높은 가중치를 가진 샘플의 집합을 나누는 것을 선호하도록 성장할 수 있다. ...29 KB (2,230 단어) - 2025년 3월 14일 (금) 04:10
- * <math>Y</math>의 그래프 <math>G=(V,E)</math>가 [[트리 구조|트리]]({{llang|en|tree}})를 형성한다면, <math>Y</math>의 [[클릭]]({{llang|en|clique}})는 간 ...d algorithm}})과 [[비터비 알고리즘]]({{llang|en|Viterbi algorithm}})이 있다. 이 알고리즘들은 트리 구조의 그래프 모델을 위한 일반적 [[신뢰전파|신뢰전파 알고리즘]]({{llang|en|belief propagation algorit ...33 KB (1,876 단어) - 2025년 3월 13일 (목) 15:15
- ...들은 [[점근 표기법]], [[분할 정복 알고리즘]] 등의 다양한 핵심 알고리즘 개념, 그리고 [[힙 (자료 구조)|힙]]과 [[이진 트리]] 등의 [[자료 구조]], [[확률적 알고리즘]], [[최선, 최악, 그리고 평균의 경우]] 분석, [[타임스페이스 트레이드오프]], 안정 정렬 알고리즘은 반복되는 요소를 입력 때와 동일한 순서로 정렬시킨다. 특정한 유형의 데이터를 정렬할 때 정렬 순서 결정 시 데이터의 일부분만 검사한다. ...35 KB (2,207 단어) - 2025년 3월 13일 (목) 15:22
- | ''n개의'' 꼭지점에 있는 모든 [[나무 그래프|트리]] ...문|Makowsky|Rotics|Averbouch|Godlin|2006}}.</ref> 후자의 종류에는 외부 평면 그래프와 같은 경계 트리 너비 의 여그래프 및 그래프가 포함된다. ...30 KB (2,357 단어) - 2025년 2월 8일 (토) 14:27
- ...명확한 이론적인 이유가 있음을 보여 주었다. 또한 2006년에는 다른 분류 알고리즘과의 포괄적인 비교를 통하여 베이지안 분류는 부스트 트리 또는 [[랜덤 포레스트]]와 같은 다른 접근 방식을 넘어섰다는 것이 밝혀졌다.<ref>{{콘퍼런스 인용| last1 = Caruana ...률 모델과 결정 규칙을 조합 한 것이다. 하나의 공통적인 규칙은 가장 가능성 높은 가설을 선택 하는 것이다. 이것은 사후 또는 MAP 결정 규칙의 최대치를 선택하는 것이다. 즉 나이브 베이즈 분류에서는 클래스 k, 즉 <math> C_k</math>에 대해서 다음 식을 통해 ...26 KB (1,735 단어) - 2025년 3월 13일 (목) 15:11
- * [[결정 트리|의사결정나무]](decision tree)에서 깊이(depth)는 분산을 결정한다. 의사결정나무는 일반적으로 분산을 제어하기 위해 가지 ...18 KB (1,094 단어) - 2024년 9월 1일 (일) 04:15
- ...math>, 상태 천이 분포 <math>\textstyle P(s_{t+1}|s_t, a_t)</math>와 함께 주어진 [[마르코프 결정 프로세스]]로 모델링되며, 정책은 관측값들이 주어졌을 때 행동에 대한 조건부 분포로 정의된다. 이 두가지는 함께 [[마르코프 연쇄]]를 준 지도 학습 패러다임에 속하는 과제에는 제어 문제, [[게임]], [[순차적 결정 문제]] 등이 있다. ...61 KB (2,389 단어) - 2025년 3월 13일 (목) 11:46
- ...따라서 이런 모델을 학습하는 것은 무척 어렵다. 정확한 해를 찾기 위하여 [[:en:junction tree algorithm|접합 트리]] 알고리즘이 사용될 수 있으나 이는 <math>O(N^{K+1}KT)</math>의 복잡도를 가진다. 현실적인 사용을 위해서는 [[변 ...경우에 이것은 실행된다. 만약 이 정보를 모델에 추가하는 것이 바람직하다면 확률 벡터 {{수학|'''''η'''''}}는 직접적으로 결정 될 수 있다. 만약 이 상대적 확률들에 확신이 적다면, 비대칭 [[:en:Dirichlet distribution|디리클레 분포]]가 ...77 KB (4,000 단어) - 2025년 3월 13일 (목) 15:32