ReLU 문서 원본 보기
←
ReLU
둘러보기로 이동
검색으로 이동
문서 편집 권한이 없습니다. 다음 이유를 확인해주세요:
요청한 명령은 다음 권한을 가진 사용자에게 제한됩니다:
사용자
.
문서의 원본을 보거나 복사할 수 있습니다.
{{위키데이터 속성 추적}} [[파일:ReLU and Nonnegative Soft Thresholding Functions.svg|대체글=ReLU 그래프|섬네일|ReLU 함수에 대한 그래프]] '''ReLU 함수'''는 [[정류]] 선형 유닛({{llang|en|Rectified Linear Unit|렉티파이드 리니어 유닛}})에 대한 함수이다. ReLU는 입력값이 0보다 작으면 0으로 출력, 0보다 크면 입력값 그대로 출력하는 유닛인데, 그 함수는 다음과 같다.<ref>{{웹 인용|url=https://mongxmongx2.tistory.com/25|제목=ReLU(Rectified Linear Unit)|성=몽이몽이몽이|이름=|날짜=|웹사이트=Tistory|출판사=|확인날짜=2020.05.31}}</ref> <math>f(x) = x^+ = \max(0, x)</math> == 예시 == ReLU {2} = 2 ReLU {-15} = 0 == 사용되는 분야 == * [[인공신경망]] * [[컴퓨터공학]] == 같이 보기 == * [[소프트맥스 함수]] * [[시그모이드 함수]] * [[층 (기계 학습)]] == 각주 == <references /> {{토막글|기술}} [[분류:인공신경망]]
이 문서에서 사용한 틀:
틀:Llang
(
원본 보기
)
틀:웹 인용
(
원본 보기
)
틀:위키데이터 속성 추적
(
원본 보기
)
틀:토막글
(
원본 보기
)
ReLU
문서로 돌아갑니다.
둘러보기 메뉴
개인 도구
로그인
이름공간
문서
토론
한국어
보기
읽기
원본 보기
역사 보기
더 보기
검색
둘러보기
대문
최근 바뀜
임의의 문서로
미디어위키 도움말
특수 문서 목록
도구
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보