검색 결과
둘러보기로 이동
검색으로 이동
문서 제목 일치
- ...고안되었으며, 마르코프 결정 과정에 대한 가장 핵심적인 연구는 1960년에 출판된 [[로널드 하워드]]의 책 《동적 계획법과 마르코프 과정》(''Dynamic Programming and Markov Processes'')<ref name=":0">{{서적 인용|url=ht ...행동 <math>a</math>에만 영향을 받으며 이전의 모든 상태와는 확률적으로 독립적이므로, 마르코프 결정 과정의 상태 전이는 [[마르코프 속성]]을 만족한다. ...10 KB (469 단어) - 2023년 11월 30일 (목) 08:41
- ...과거와 미래가 서로 [[독립 (확률론)|독립]]인 [[확률 과정]]이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다. [[순응 확률 과정]] ...7 KB (526 단어) - 2024년 12월 21일 (토) 08:27
문서 내용 일치
- ...과거와 미래가 서로 [[독립 (확률론)|독립]]인 [[확률 과정]]이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다. [[순응 확률 과정]] ...7 KB (526 단어) - 2024년 12월 21일 (토) 08:27
- [[확률론]]에서 '''마르코프 연쇄'''(Марков 連鎖, {{llang|en|Markov chain}})는 이산 시간 [[확률 과정]]이다. ...시간에 따른 계의 상태의 변화를 나타낸다. 매 시간마다 계는 상태를 바꾸거나 같은 상태를 유지한다. 상태의 변화를 전이라 한다. [[마르코프 성질]]은 과거와 현재 상태가 주어졌을 때의 미래 상태의 [[조건부 확률]] 분포가 과거 상태와는 독립적으로 현재 상태에 의해서만 결정 ...5 KB (294 단어) - 2025년 2월 14일 (금) 02:52
- ...장들에 할당하는 문제에 직면한다. 이 문제를 극복하기 위한 여러 모델링 접근법들이 설계되고 있는데, 예를 들면 [[마르코프 확률 과정|마르코프 추정]]을 적용하거나 [[순환 신경망]] 또는 [[변환기 (기계 학습)|변환기]] 등의 신경 아키텍처를 사용하는 것을 들 수 있다. [[분류:마르코프 모형]] ...2 KB (119 단어) - 2025년 2월 17일 (월) 02:37
- [[확률 과정]] 이론에서, '''정지 시간'''(停止時間, {{llang|en|stopping time|스토핑 타임}}) 또는 '''마르코프 순간'''(Марков瞬間, {{llang|en|Markov moment}}<ref>{{서적 인용|last1=Kallenberg |fi [[확률 과정]]의 정지 시간이란 그 [[자연 여과 확률 공간]]에 대한 정지 시간을 뜻한다. ...3 KB (287 단어) - 2022년 3월 3일 (목) 06:06
- ...결정 과정에 대한 지식을 요구하지 않는다는 점과, 강화 학습은 크기가 매우 커서 결정론적 방법을 적용할 수 없는 규모의 마르코프 결정 과정 문제를 다룬다는 점이다. ...에서 가장 많이 연구된 문제로, [[다중 슬롯 머신 문제]](multi-armed bandit problem)와 유한한 마르코프 결정 과정 등에서 연구되었다. ...6 KB (189 단어) - 2024년 10월 2일 (수) 08:26
- [[분류:마르코프 과정]] ...1 KB (144 단어) - 2025년 3월 8일 (토) 15:04
- ...고안되었으며, 마르코프 결정 과정에 대한 가장 핵심적인 연구는 1960년에 출판된 [[로널드 하워드]]의 책 《동적 계획법과 마르코프 과정》(''Dynamic Programming and Markov Processes'')<ref name=":0">{{서적 인용|url=ht ...행동 <math>a</math>에만 영향을 받으며 이전의 모든 상태와는 확률적으로 독립적이므로, 마르코프 결정 과정의 상태 전이는 [[마르코프 속성]]을 만족한다. ...10 KB (469 단어) - 2023년 11월 30일 (목) 08:41
- ...]]적 방법으로 전개되므로 [[확률 행렬]](Stochastic matrix)로도 잘 알려져 있다. [[마르코프 연쇄]]에서 [[확률 과정]]으로 표현된다. ...= 92–96 }}</ref> 그의 초기 의도된 사용은 언어학적 분석과 다른 수학 과목에 사용이었다. [[카드 섞기]]와 비슷하지만 마르코프 체인과 매트릭스는 다른 분야에서 빠르게 이용되었다.<ref name=":2" /><ref name=":0" /><ref>''Charle ...8 KB (743 단어) - 2024년 12월 9일 (월) 02:34
- ...évy stochastic process}})은 모든 증분들이 서로 독립이며 정상적이며, 또한 어떤 연속성 조건을 만족시키는 [[확률 과정]]이다. === 확률 연속 확률 과정 === ...6 KB (429 단어) - 2024년 12월 20일 (금) 09:40
- [[확률론]]에서 '''확률 과정'''(確率過程, {{llang|en|stochastic process}})은 시간의 진행에 대해 [[확률]]적인 변화를 가지는 구조를 '''확률 과정'''은 다음과 같은 데이터로 주어진다. ...8 KB (622 단어) - 2025년 3월 3일 (월) 08:58
- ...닝'''(Q-learning)은 모델 없이 학습하는 [[강화 학습]] 기법 가운데 하나이다. Q 러닝은 주어진 유한 [[마르코프 결정 과정]]의 최적의 정책을 찾기 위해 사용할 수 있다. Q 러닝은 주어진 상태에서 주어진 행동을 수행하는 것이 가져다 줄 효용의 기대값을 예측 ...갱신된다. 알고리즘의 핵심은 다음과 같이 이전의 값과 새 정보의 가중합(weighted sum)을 이용하는 간단한 [[마르코프 결정 과정|값 반복법]]이다. ...4 KB (168 단어) - 2024년 10월 2일 (수) 08:26
- ...'마팅게일'''({{llang|en|martingale|마턴게일}}, {{llang|fr|martingale|마르탱갈}})은 [[확률 과정]]의 하나로, 과거의 모든 정보를 알고 있다면 미래의 [[기댓값]]이 현재 값과 동일한 과정이다.<ref>{{서적 인용|first=Da ..., <math>(\Omega,\mathcal F_t,\Pr)_{t\in T\cup\{\infty\}}</math> 위의 [[순응 확률 과정]] <math>(X_t\colon \Omega\to)_{t\in T}</math>이 만약 다음 두 조건을 만족시킨다면, '''마팅게일' ...7 KB (521 단어) - 2024년 6월 3일 (월) 07:09
- ...는 다른 정의역)에서 임의의 값을 취하는 함수 <math>f(x)</math>이다. 또한 이는 첨자 집합에 어떤 제한이 있는 [[확률 과정]]의 동의어로 보기도 한다. 즉, 현대 정의에 따르면 무작위장은 기본 매개변수가 더 이상 실수 또는 [[정수]]일 필요가 없고 대신 다 마르코프 무작위장, 기브스 무작위장, 조건부 무작위장, 가우스 무작위장 등의 여러 종류의 무작위장이 존재한다. ...6 KB (222 단어) - 2024년 7월 17일 (수) 07:05
- ...분배 함수가 변환 대칭을 갖는 물리적 계뿐만 아니라 신경망([[홉필드 네트워크]])과 같은 다양한 설정과 마르코프 논리 네트워크와 [[마르코프 네트워크]]를 사용하는 [[유전체학]], [[말뭉치언어학|말뭉치 언어학]] 및 [[인공지능|인공 지능]]과 같은 응용에서도 발생한다는 ...대한 합이다. 예를 들어 [[이징 모형|이징 모델]]과 같은 [[통계역학|통계 역학]]에서 합계는 최근접 이웃 쌍에 대한 것이다. [[마르코프 네트워크]]와 같은 확률 이론에서 합계는 그래프의 [[클릭 (그래프 이론)|클릭 수]]를 초과할 수 있다. 따라서 이징 모델 및 기타 ...20 KB (783 단어) - 2024년 8월 1일 (목) 03:44
- ...18.2876959|s2cid=58672766}}</ref> [[에르고딕 정리]]에 의해, 정상(stationary) 확률 분포는 [[마르코프 연쇄 몬테카를로 방법|MCMC]] 샘플러의 무작위 상태의 [[경험적 측도]]에 의해 근사된다. ...경험적 측도]]과 상호작용한다는 사실을 반영한다. 시스템의 크기가 무한대로 발산할 때, 이러한 무작위 [[경험적 측도]]는 비선형 [[마르코프 연쇄]]의 무작위 상태의 결정론적 분포로 수렴하여 입자 사이의 통계적 상호작용이 사라진다. ...24 KB (2,127 단어) - 2024년 12월 21일 (토) 02:06
- ...있기 때문에 '은닉'이라는 단어가 붙게 되었다. 은닉 마르코프 모형은 [[동적 베이지안 네트워크]]로 간단히 나타낼 수 있으며, 은닉 마르코프 모형의 해를 찾기 위해 [[전향-후향 알고리즘]]을 제안한 스트라토노빅<ref name=Stratonovich1960>{{저널 인용|a 한편 은닉 마르코프 모형에 사용된 수학적 개념들은 바움(L. E. Baum)과 그의 동료들에 의해 정립되었다.<ref>{{저널 인용|last=Baum|fi ...77 KB (4,000 단어) - 2025년 3월 13일 (목) 15:32
- ...1=4312 Markov Process, Markov Chain 마르코프 프로세스, 마르코프 과정, 마코브 과정, 마르코프 모델, 마르코프 연쇄], 정보통신용어해설</ref> * [[확률 과정]] ...35 KB (1,315 단어) - 2024년 7월 10일 (수) 06:18
- [[마르코프 연쇄|마르코프 과정]]에서와 마찬가지로, 확률이 깁스 측도에서 파생되면 <math>\theta</math>는 [[라그랑주 승수법|라그랑주 승수]]로 이해될 ...25 KB (1,732 단어) - 2024년 12월 20일 (금) 14:33
- ...h>{z_k}</math>으로부터 필터 또는 평활화에 의해 계산된 스칼라 출력 추정이다. 비슷하게 1차 자기회귀 과정을 위해, 갱신된 과정 잡음 분산 추정이 다음과 같이 계산된다. ...렬의 계산이 필요 없다. α-EM은 알맞은 α를 선택함으로써 log-EM 알고리즘 보다 더 빠르게 수렴한다. α-EM 알고리즘은 은닉 마르코프 모델 추정 알고리즘 α-HMM<ref> ...51 KB (4,289 단어) - 2025년 3월 13일 (목) 15:03
- .../math>에서의 [[확률 밀도 함수|확률 밀도]]를 나타낼 때 쓰인다. 이 경우, 반군 조건은 브라운 운동의 [[마르코프 확률 과정|마르코프 성질]]의 표현이다. 델타 함수는 [[확산 과정]]의 [[현지 시간(수학)|국소 시간]]을 나타내기 위해 완전히 다른 방식으로 사용된다(예: [[브라운 운동]]). 확률과정 ''<ma ...81 KB (5,956 단어) - 2024년 12월 20일 (금) 21:45