유 온리 룩 원스 문서 원본 보기
←
유 온리 룩 원스
둘러보기로 이동
검색으로 이동
문서 편집 권한이 없습니다. 다음 이유를 확인해주세요:
요청한 명령은 다음 권한을 가진 사용자에게 제한됩니다:
사용자
.
문서의 원본을 보거나 복사할 수 있습니다.
{{위키데이터 속성 추적}} {{소프트웨어 정보 | author = 조셉 레드몬, 산토시 디발라, 로스 거식, 알리 파르하디 | released = 2015 | programming language = [[파이썬]] | genre = {{ indented plainlist | * [[객체 탐지]] * [[합성곱 신경망]] * [[컴퓨터 비전]] }} | website = {{URL|https://pjreddie.com/darknet/yolo/}} }} [[파일:Detected-with-YOLO--Schreibtisch-mit-Objekten.jpg|섬네일|80개 공통 클래스의 객체를 감지할 수 있는 COCO 데이터 세트에서 훈련된 YOLOv3 모델을 사용하여 OpenCV의 심층 신경망 모듈로 객체를 감지한다.]] '''유 온리 룩 원스'''(You Only Look Once, '''YOLO''')는 [[합성곱 신경망]]을 기반으로 한 일련의 실시간 [[객체 탐지]] 시스템이다. 조셉 레드몬 등에 의해 처음 소개되었다. 2015년<ref name=":2">{{ArXiv 인용|eprint=1506.02640 |class=cs.CV |first1=Joseph |last1=Redmon |first2=Santosh |last2=Divvala |title=You Only Look Once: Unified, Real-Time Object Detection |date=2016-05-09 |last3=Girshick |first3=Ross |last4=Farhadi |first4=Ali}}</ref> YOLO는 여러 번의 반복과 개선을 거쳐 가장 인기 있는 객체 감지 프레임워크 중 하나가 되었다.<ref name=":0">{{저널 인용|last1=Terven |first1=Juan |last2=Córdova-Esparza |first2=Diana-Margarita |last3=Romero-González |first3=Julio-Alejandro |date=2023-11-20 |title=A Comprehensive Review of YOLO Architectures in Computer Vision: From YOLOv1 to YOLOv8 and YOLO-NAS |journal=Machine Learning and Knowledge Extraction |language=en |volume=5 |issue=4 |pages=1680–1716 |doi=10.3390/make5040083 |doi-access=free |issn=2504-4990|arxiv=2304.00501 }}</ref> "유 온리 룩 원스"(You Only Look Once)라는 이름은 단일 이미지에 수천 개가 필요한 [[R-CNN]]과 같은 이전 영역 제안 기반 기술과 달리 알고리즘이 예측을 위해 신경망을 통과하는 단 한 번의 순방향 전파 통과만 필요하다는 사실을 나타낸다. == 개요 == R-CNN 및 오버피트(OverFeat)와 같은 이전 방법과 비교하여 YOLO는 여러 위치와 규모의 이미지에 모델을 적용하는 대신 단일 신경망을 전체 이미지에 적용한다.<ref name=":3">{{인용|last1=Sermanet |first1=Pierre |title=OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks |date=2014-02-23 |last2=Eigen |first2=David |last3=Zhang |first3=Xiang |last4=Mathieu |first4=Michael |last5=Fergus |first5=Rob |last6=LeCun |first6=Yann|arxiv=1312.6229 }}</ref> 이 네트워크는 이미지를 영역으로 나누고 각 영역에 대한 경계 상자와 확률을 예측한다. 이러한 경계 상자는 예측 확률에 따라 가중치가 부여된다. === 오버피트 === 오버피트(OverFeat)는 동시 객체 분류 및 위치 파악을 위한 초기 영향력 있는 모델이었다.<ref name=":3" /><ref>{{인용|last=sermanet |title=sermanet/OverFeat |date=2024-09-09 |url=https://github.com/sermanet/OverFeat |access-date=2024-09-15}}</ref> 그 아키텍처는 다음과 같습니다: * 이미지 분류 전용 신경망을 훈련한다("분류 훈련 네트워크"). 이는 [[알렉스넷]]과 같은 것일 수 있다. * 훈련된 신경망의 마지막 계층이 제거되고, 가능한 모든 객체 클래스에 대해 마지막 계층에서 신경망 모듈("회귀 신경망")을 초기화한다. 기본 네트워크에는 매개변수가 고정되어 있다. 회귀 네트워크는 객체 경계 상자의 두 모서리에 대한 <math>(x, y)</math> 좌표를 예측하도록 훈련되었다. * 추론 시간 동안 분류 훈련 네트워크는 다양한 확대/축소 수준과 자르기를 통해 동일한 이미지에 대해 실행된다. 각각에 대해 클래스 레이블과 해당 클래스 레이블에 대한 확률을 출력한다. 그런 다음 각 출력은 해당 클래스의 회귀 네트워크에 의해 처리된다. 이로 인해 클래스 레이블과 확률이 포함된 수천 개의 경계 상자가 생성된다. 이러한 상자는 단일 클래스 레이블이 있는 단일 상자만 남을 때까지 병합된다. == 같이 보기 == * [[컴퓨터 비전]] * [[객체 탐지]] * [[합성곱 신경망]] == 각주 == {{각주}} == 외부 링크 == * [https://pjreddie.com/darknet/yolo/ Official YOLO website] * [https://github.com/AlexeyAB/darknet YOLO implementation in Darknet] [[분류:컴퓨터 비전]] [[분류:딥 러닝]] [[분류:신경망]]
이 문서에서 사용한 틀:
틀:ArXiv 인용
(
원본 보기
)
틀:각주
(
원본 보기
)
틀:소프트웨어 정보
(
원본 보기
)
틀:위키데이터 속성 추적
(
원본 보기
)
틀:인용
(
원본 보기
)
틀:저널 인용
(
원본 보기
)
유 온리 룩 원스
문서로 돌아갑니다.
둘러보기 메뉴
개인 도구
로그인
이름공간
문서
토론
한국어
보기
읽기
원본 보기
역사 보기
더 보기
검색
둘러보기
대문
최근 바뀜
임의의 문서로
미디어위키 도움말
특수 문서 목록
도구
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보