실제로 이 과정 중에는 각 계층 변수들의 한계 확률을 구하는 과정
2,369
2015.11.09 18:09
별점
짧은주소
- - 짧은주소: http://theme.eyoom.net/bbs/?t=TJ 주소복사
본문
깁스 표본법이라는 과정에서 시간을 많이 요하게 되는데, 토론토 연구팀은 실제 데이터의 경우에는 여러 반복을 수행하는 깁스 표본법을 한 단계의 반복으로 줄여 수행하는 방법(Contrastive Divergence)이 계산도 빠르면서 정확도에 큰 영향을 주지 않는다는 것을 실증적으로 보였다. 이를 통해 많은 양의 데이터를 쉽게 선행 학습 할 수 있도록 해 딥 네트워크의 성공을 이끌었다. 더불어 모델이 학습시키는 데이터에 의존적이 되는 과잉적합(overfitting)을 해결하기 위해 주어진 확률로 네트워크에 있는 변수들을 생략하는 방법인 드롭아웃(Drop out)을 제안해 최근 이미지 인식 분야 및 음성인식 성능을 다시 한 번 크게 향상시켰다.
0
좋아요!
레벨 4
경험치 1,846
Progress Bar 81%
- 가입일 : 2014-10-12 14:04:12
- 서명 : 가장 훌륭한 기술, 가장 배우기 어려운 기술은 세상을 살아가는 기술이다.
- 자기소개 : 안녕하세요. 최고관리자입니다. 오늘도 좋은 하루되세요.
댓글목록
등록된 댓글이 없습니다.