실제로 이 과정 중에는 각 계층 변수들의 한계 확률을 구하는 과정

2,156 2015.11.09 18:09

별점

짧은주소

본문

990874208_1447060145.41709.jpg


깁스 표본법이라는 과정에서 시간을 많이 요하게 되는데, 토론토 연구팀은 실제 데이터의 경우에는 여러 반복을 수행하는 깁스 표본법을 한 단계의 반복으로 줄여 수행하는 방법(Contrastive Divergence)이 계산도 빠르면서 정확도에 큰 영향을 주지 않는다는 것을 실증적으로 보였다. 이를 통해 많은 양의 데이터를 쉽게 선행 학습 할 수 있도록 해 딥 네트워크의 성공을 이끌었다. 더불어 모델이 학습시키는 데이터에 의존적이 되는 과잉적합(overfitting)을 해결하기 위해 주어진 확률로 네트워크에 있는 변수들을 생략하는 방법인 드롭아웃(Drop out)을 제안해 최근 이미지 인식 분야 및 음성인식 성능을 다시 한 번 크게 향상시켰다.

0
좋아요!
- 최고관리자 메일보내기 아이디로 검색 - 회원등급 : 최고관리자 - 포인트 : 53,013
레벨 4
경험치 1,826

Progress Bar 79%

- 가입일 : 2014-10-12 14:04:12
- 서명 : 가장 훌륭한 기술, 가장 배우기 어려운 기술은 세상을 살아가는 기술이다.
- 자기소개 : 안녕하세요. 최고관리자입니다. 오늘도 좋은 하루되세요.
댓글목록

등록된 댓글이 없습니다.