File Download

There are no files associated with this item.

  • Find it @ UNIST can give you direct access to the published full text of this article. (UNISTARs only)
Related Researcher

심재영

Sim, Jae-Young
Visual Information Processing Lab.
Read More

Views & Downloads

Detailed Information

Cited time in webofscience Cited time in scopus
Metadata Downloads

Full metadata record

DC Field Value Language
dc.citation.conferencePlace KO -
dc.citation.title 2016 년도 한국멀티미디어학회 추계학술발표대회 -
dc.contributor.author 이대식 -
dc.contributor.author 심재영 -
dc.date.accessioned 2023-12-19T20:06:24Z -
dc.date.available 2023-12-19T20:06:24Z -
dc.date.created 2016-12-22 -
dc.date.issued 2016-10-21 -
dc.description.abstract 뉴럴 네트워크에서 계층별 활성 함수를 거치면서 발생하는 vanishing gradient 문제를 해결하기 위하여 ReLU가 제안되어 다양한 딥 뉴럴 네트워크에 활용되었다. 이후 ReLU 함수의 특성을 개선한 LeakyReLU 및 PReLU와 같은 활성 함수가 연구되었다. 본 논문에서는 ReLU의 기울기를 최적화하는 딥 콘볼루션 뉴럴 네트워크를 위한 개선된 활성 함수를 제안한다. 실험 결과 CIFAR-100 Dataset의 영상 분류의 정확도가 기존 활성 함수 대비 향상됨을 확인한다. -
dc.identifier.bibliographicCitation 2016 년도 한국멀티미디어학회 추계학술발표대회 -
dc.identifier.uri https://scholarworks.unist.ac.kr/handle/201301/40768 -
dc.language 한국어 -
dc.publisher 한국멀티미디어학회 -
dc.title.alternative Improved activation function of convolutional deep neural networks for image classification -
dc.title 영상 분류를 위한 콘볼루션 딥 뉴럴 네트워크의 활성 함수 개선 -
dc.type Conference Paper -
dc.date.conferenceDate 2016-10-21 -

qrcode

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.