• 전체
  • 전자/전기
  • 통신
  • 컴퓨터
닫기

사이트맵

Loading..

Please wait....

국내 학회지

홈 홈 > 연구문헌 > 국내 학회지 > 정보과학회지 (Communications of KIISE)

정보과학회지 (Communications of KIISE)

Current Result Document : 8 / 18 이전건 이전건   다음건 다음건

한글제목(Korean Title) [특집원고] 딥 러닝 기술에서의 적대적 학습 기술 동향
영문제목(English Title)
저자(Author) 김용준   김영식  
원문수록처(Citation) VOL 36 NO. 02 PP. 0009 ~ 0013 (2018. 02)
한글내용
(Korean Abstract)
오늘날 딥 러닝(deep learning)으로 대표되는 거대한 신경망(neural network) 기술이 등장하면서 기계학습이 다양한 공학 분야의 문제를 푸는데 응용되고 있다. 알렉스넷(AlexNet)은 인간 수준의 물체 인식 능력에 도달하였고 [1], 최근에 제안된 레스넷(ResNet)은 인간의 물체 인식 능력을 넘어섰다 [2]. 딥 러닝 기술은 이미지넷(ImageNet)과 같은 거대한 데이터셋(dataset)과 데이터셋을 효율적으로 연산할 수 있는 알고리즘, 연산을 고속화할 수 있는 하드웨어 성능의 향상으로 인해 현실 세계의 많은 문제를 놀라운 성능으로 해결하고 있으며, 기존에 알려진 다른 형태의 기계학습 알고리즘보다 더 우수한 성능을 보여주고 있다. 딥 러닝은 기존의 분류 기술보다 더 거대한 집합에 대해서 더 높은 정확도를 갖는 결과를 산출해 낼 수 있으며, 복잡한 데이터를 분석하고 처리하는 계산 기술로서 여러 분야에서 각광을 받고 있다. 이런 응용 분야 중에는 초기의 여러 이미지를 카테고리에 맞게 분류하는 컴퓨터 비전 분야뿐만 아니라, 음성 인식, 언어 처리, 금융사기 검출 및 스팸 메일 분류, 또는 악성코드 검출 및 침입탐지 시스템과 같은 분야에서 활발하게 응용되기 시작하였다. 특히 자율주행차와 같은 미래의 핵심 기술에서도 활발하게 응용되고 있다. 그러나 최근 딥 신경망(deep neural network; DNN)의 훈련 과정의 불완전성으로 인해서 딥 러닝 알고리즘이 적대적 샘플(adversarial sample)에 매우 취약하다는 사실이 알려졌다. 적대적 샘플들은 딥 신경망이 잘못된 결과를 산출하도록 공격자가 의도적으로 조작시킨 입력값들로, 사람 눈으로 구분할 수 없는 미세한 차이를 갖는 영상에 대해서 딥 신경망이 전혀 다른결과로 판정하는 것이 쉽게 일어난다는 것이 알려졌다. 이런 공격을 활용하게 되면 딥 러닝으로 학습시킨 침입 탐지시스템을 간단하게 회피할 수 있는 새로운 공격 패턴이나 악성코드를 생성하는 것이 가능해지게된다. 또는 자율주행차에서 표지판을 잘못 오독하게 함으로써 사고를 유발시키거나 안전의 위협할 수 있는 공격이 쉽게 일어날 수 있다. 본 논문에서는 딥 러닝에 대한 간단한 개요와 함께 최근 알려진 적대적 학습(adversarial learning)에 기술을 소개할 것이다.
영문내용
(English Abstract)
키워드(Keyword)
파일첨부 PDF 다운로드