테마선택
  • 북마크
  • 접속자 73
  • FAQ
  • 1:1문의
  • 새글
  • 추천 태그

경제뉴스(무한스크롤)

딥러닝은 이런 다계층 인공신경망을 학습하는 알고리즘을 포괄적으로 일컫는 용어

2,804 2015.11.09 18:11

별점

  • - 별점통계:
  • - 평점 : 0점 (0명 참여)

짧은주소

본문


최근 개발된 알고리즘들이 주목하고 있는 공통적인 내용은 표현력이 풍부한 다계층 구조에서 역전파법의 과잉적합을 피하면서 적절한 희소성 표현(Sparse Representation)을 찾는 것이다. 최근 보고에 따르면 구글은 순환 인공신경망(Recurrent Neural Network)을 딥러닝 알고리즘으로 학습시켜 자동 언어 번역기를 실험 중이다. 딥러닝의 발전이 사물인식과 음성인식 등을 넘어 머신러닝의 실용적 발전을 어디까지 이끌어 갈지 기대된다.

머신러닝 알고리즘은 데이터를 표현하는 모델과 분리해 생각하기 어렵다. 현재 제한된 볼즈만 기계 등 다층 인공신경망 모델의 성공은 다양한 비정형 데이터를 잘 표현할 수 있는 유연한 모델이 필요하다는 것을 시사한다고 할 수 있다.

0
좋아요!
- 최고관리자 메일보내기 아이디로 검색 - 회원등급 : 최고관리자 - 포인트 : 53,113
레벨 4
경험치 1,846

Progress Bar 81%

- 가입일 : 2014-10-12 14:04:12
- 서명 : 가장 훌륭한 기술, 가장 배우기 어려운 기술은 세상을 살아가는 기술이다.
- 자기소개 : 안녕하세요. 최고관리자입니다. 오늘도 좋은 하루되세요.
댓글목록

등록된 댓글이 없습니다.

Total 7건 1 페이지
희소성 표현법을 선호하는 방향으로 발전하는 것을 보면, 학습 알고리즘

 콜모고로프(Kolmogorov)는 중첩 정리(superposition theorem)를 통해 n개의 입력 변수와 1개의 출력 변수가 주어진 임의의 함수를 적절한 선형 비선형 변환을 통해 중간계층에 2n+1개의 변수만을 갖는 3계층 구조로 표현하는 것이 가능하…

열람중  딥러닝은 이런 다계층 인공신경망을 학습하는 알고리즘을 포괄적으로 일컫는 용어

최근 개발된 알고리즘들이 주목하고 있는 공통적인 내용은 표현력이 풍부한 다계층 구조에서 역전파법의 과잉적합을 피하면서 적절한 희소성 표현(Sparse Representation)을 찾는 것이다. 최근 보고에 따르면 구글은 순환 인공신경망(Recurrent Neural …

실제로 이 과정 중에는 각 계층 변수들의 한계 확률을 구하는 과정

깁스 표본법이라는 과정에서 시간을 많이 요하게 되는데, 토론토 연구팀은 실제 데이터의 경우에는 여러 반복을 수행하는 깁스 표본법을 한 단계의 반복으로 줄여 수행하는 방법(Contrastive Divergence)이 계산도 빠르면서 정확도에 큰 영향을 주지 않는다는 것을…

딥 네트워크라고 불리는 이 모델은 이미지·사물인식 분야

기존에 존재하는 모델들을 뛰어 넘으며 인공신경망 모델과 알고리즘의 새로운 연구를 이끌고 있다. 다층 제한 볼즈만 기계(Rectricted Boltzmann Machine)의 학습 알고리즘은 기본적으로는 전통적인 경사 하강법을 통해 이뤄진다. 구체적으로 살펴보면, 주어진…

다층적 인공신경망인 딥러닝이 이미지를 인식하는 컴퓨터 비전

인공신경망의 학습 알고리즘은 한 계층을 학습하는 퍼셉트론(Perceptron) 알고리즘과 계층 간 정보(오류)를 전달하는 역전파법(Backpropagation)이 널리 알려졌으나, 기존의 역전파법이 다계층의 네트워크에서는 다계층을 통해 정보를 전달하는 과정에서 소멸돼 …

밸리언트는 모델의 표현력의 로그에 비례해 더 많은 학습 데이터

효율적인 학습이 가능한 모델과 알고리즘이 있음을 보였다. PAC 러닝에 대한 연구는 마이클 컨스(Michael Kearns)에 의해 약한(정확도 α가 50%보다 크지만 정확하지는 않은) 학습기를 통해 강한(더 정확도가 높은) 학습기를 학습할 수 있는지에 대한 질문으로 …

월간베스트
LOGIN
설문조사
투표하기 테스트입니다.
Ranking

    출력할 랭킹이 없습니다.

  • 01 블루드래곤
    104,017
  • 02 채오설서
    25,200
  • 03 춘은수외
    15,400
  • 04 ucksaiqy
    12,200
  • 05 중동왕자
    12,154
  • 06 kssaiqyg
    11,100
  • 07 aiqygoww
    7,900
  • 08 saiqygow
    6,500
  • 09 pwwemuck
    6,500
  • 10 jrzhpxfn
    6,300
  • 01 kssaiqyg
    58,171
  • 02 dltbjrzh
    49,471
  • 03 vdltbjrz
    48,621
  • 04 ksaiqyyg
    46,651
  • 05 jrzhpxfn
    13,861
  • 06 채오설서
    4,841
  • 07 춘은수외
    2,881
  • 08 ucksaiqy
    2,241
  • 09 aiqygoww
    1,381
  • 10 pwwemuck
    1,101