[IT 신트렌드] 학습하는 방법을 학습하는 인공지능/추형석 소프트웨어정책연구소 선임연구원

입력 : ㅣ 수정 : 2018-06-12 00:46

폰트 확대 폰트 축소 프린트하기
현대 인공지능의 핵심은 ‘심층학습’(딥러닝)이다. 심층학습은 알파고, 자율주행자동차, 기계번역 등 현재 등장한 많은 혁신 기술들에 녹아 있다. 그 핵심은 복잡하고 방대한 데이터를 인간의 신경망 구조를 흉내낸 인공 신경망으로 학습하고 의사 결정을 내릴 수 있다는 점에 있다. 그러나 심층학습에도 분명한 한계가 존재한다. 바로 학습 방법에 대한 기준이 모호하다는 점이다. 보다 정확하게 표현하자면 심층학습의 대상이 되는 인공 신경망 구조에 정해진 해답이 없다는 것이다. 바둑 인공지능 알파고의 인공 신경망은 13층으로 구성돼 있다. 사진에서 사물을 인식하는 인공 신경망은 152층에 달한다. 일반적으로 인공 신경망의 층이 깊어질수록 예측의 정확도가 상승할 것이라고 기대할 수 있으나 반드시 그렇지만도 않다.
추형석 소프트웨어정책연구소 선임연구원

▲ 추형석 소프트웨어정책연구소 선임연구원

인공 신경망의 깊이, 한 층의 노드(신경통로) 개수, 학습률, 활성함수, 학습 알고리즘 등 연구자가 정해야 할 요소들이 매우 방대하다. 이처럼 방대한 모수들을 변경해 가면서 최적의 인공 신경망 구조를 찾는 것이 심층학습의 과정이다. 이러한 이유 때문에 고성능 컴퓨팅 자원을 활용해 가능한 한 많은 경우의 수를 시험하는 것이 일반적 접근이다. 하지만 심층학습은 이러한 복잡도를 무색하게 할 만큼 예측 성능이 좋기 때문에 현대 인공지능 기술의 정점에 서 있는 것이다.

경험적 결과에 의존하는 심층학습의 돌파구는 무엇일까. 최근 구글의 구글 브레인 팀은 ‘신경망 구조 탐색’이라는 주제의 논문을 발표했다. 주어진 데이터에 최적화된 인공 신경망 구조를 탐색하는 것이 핵심이다. 재미있는 것은 신경망 구조 탐색 기법 역시 심층학습을 활용했다는 점이다. 심층학습의 인공 신경망 구조를 찾기 위한 심층학습 방법이라고 할 수 있겠다. 그 결과 역시 상당히 흥미롭다. 신경망 구조 탐색으로 얻어진 인공 신경망 구조는 사진에서 물체를 인식하기 위한 데이터인 ‘CIFAR10’에서 2.65%의 오차율을 보였다. 이 수치는 기존의 경험적인 방법에서 기록한 가장 낮은 오차율인 4%보다 훨씬 우수하다는 점에서 큰 의미가 있다.

하지만 신경망 구조 탐색은 막대한 컴퓨팅 자원을 필요로 한다. 위에서 언급한 2.65%의 오차율은 450개의 GPU(정보처리 속도가 빠르고 심층학습의 핵심인 영상정보 처리 장치)를 활용해 3~4주 동안 계산한 결과다. 장비 값만 환산해도 수십억원에 달한다.

신경망 구조 탐색은 학습하는 방법을 학습하는 인공지능으로 출발했으나 이 역시 경험적 결과를 바탕으로 하고 있다. 현재 신경망 구조 탐색은 계산 비용을 줄이는 방향으로 연구가 진행되고 있기 때문에 미래는 밝다. 이런 혁신적인 연구들이 결국은 인공지능의 신비를 풀 수 있는 열쇠가 되지 않을까 기대해 본다.

2018-06-12 29면
페이스북 트위터 카카오스토리 밴드 블로그

/

    2019수능

서울Eye - 포토더보기