[IT 신트렌드] 설명 가능한 AI가 주는 선물/추형석 소프트웨어정책연구소 선임연구원

입력 : ㅣ 수정 : 2018-01-23 00:18

폰트 확대 폰트 축소 프린트하기
추형석 소프트웨어정책연구소 선임연구원

▲ 추형석 소프트웨어정책연구소 선임연구원

인공지능(AI)기술은 최근 눈부신 성장을 거듭하고 있지만 동시에 어두운 이면도 부상하고 있다. 우리 사회는 앞으로 AI와 공존하게 될 것이다. 그 전제 조건 중 하나가 바로 AI에 대한 신뢰성이다. AI가 자동으로 의사 결정한 이유에 대해 설명이 불가능하다면 인간과의 공존이 어려울 것이기 때문이다.

현재 AI 기술에서 가장 성능이 좋은 ‘딥 러닝’ 기술은 설명이 거의 불가능하다. 이세돌 9단과 대국을 펼친 알파고에도 바둑 지식을 습득하기 위해 딥 러닝 기술이 활용됐다. 그러나 현재 기술력으로는 왜 알파고가 바둑을 잘 두는지에 대해 논리적 인과관계를 설명하지 못한다.

사실 딥 러닝 기반의 AI는 경험적인 결과라고 볼 수 있다. 딥 러닝의 모태가 되는 인공신경망을 다양하게 조합해 시험하고 최적화된 결론을 내는 것이다. 알파고 역시 다양한 인공신경망 구조, 입력값 등을 조정해 가며 최상의 결과를 도출했다. 결국 현대의 AI는 이론적으로 엄밀한 접근보다는 경험적으로 최적화된 결과라고 볼 수 있다. 이런 요인 역시 AI의 인과관계를 설명하기 어려운 측면으로 결론지어진다.

자율주행기술을 예로 들어보자. 자율주행 AI는 주행 영상에서 사물을 인식해 의사 결정을 내린다. 그러나 자율주행 AI가 사고를 냈을 경우 원인이 무엇인지 설명할 수 없다면 자율주행 기술을 현실적으로 활용하는 데 걸림돌이 될 것이다. 그렇기 때문에 딥 러닝의 설명 가능성을 밝혀 내는 것은 우리가 AI와 공존할 수 있는 선제적 조건이 될 수밖에 없다.

인공지능 학계는 딥 러닝의 설명 가능성에 대해 주목하고 있다. 2017년 미국 방위고등연구계획국(DARPA)에서는 ‘설명 가능한 인공지능’ 연구를 발족해 올해 수천만 달러 규모의 연구개발(R&D) 자금이 투입됐다. 한국도 지난해 AI 국가전략프로젝트의 일환으로 차세대 학습, 추론 연구를 추진해 설명 가능한 AI를 연구하는 대열에 합류했다.

지난해 4월에는 컴퓨터 하드웨어 전문기업 NVIDIA가 설명 가능한 자율주행자동차 기술을 공개했다. NVIDIA는 자율주행자동차가 운행하는 의사결정을 설명하여 신뢰성을 확보했다. 아직은 초기 단계이기 때문에 완벽한 설명은 불가능하지만 설명 가능한 AI기술이 가져오는 파급효과는 매우 크다고 볼 수 있다.

AI의 설명 가능성에 대한 연구는 신경계 정보처리에 대한 단초도 제공할 것이다. 인간이 정보를 저장하고 추론하는 기능은 아직까지 생리학적으로 규명되지 않았다. 인간의 뇌 구조를 모사한 딥 러닝 기술의 설명 가능성은 역으로 인간의 뇌에 대한 설명 가능성으로 이어질 수 있다. AI가 설명 가능해진다면 미래는 AI과 함께 사는 세상이 될 수 있을 것이다.
2018-01-23 29면
페이스북 트위터 카카오스토리 밴드 블로그

/

서울Eye - 포토더보기