[IT 신트렌드] 악의적 AI 활용, 어떻게 대응할까/추형석 소프트웨어정책연구소 선임연구원

입력 : ㅣ 수정 : 2018-03-05 20:50

폰트 확대 폰트 축소 프린트하기
추형석 소프트웨어정책연구소 선임연구원

▲ 추형석 소프트웨어정책연구소 선임연구원

현재 인공지능(AI) 기술은 우리 삶 곳곳에 스며들어 있다. 흔히 사용하는 웹 검색에서부터 기계 번역, 얼굴 인식, 의료 영상 분석까지 인공지능이 활용되는 분야는 점점 늘 것이다. 사람의 지능 행동을 자동화하는 인공지능은 인류의 삶을 이롭게 하는 데 가장 큰 가치를 둔다. 인공지능을 활용해 사회적 약자를 도와주는 것처럼 많은 분야에서 그 가능성을 증명하고 있기도 하다. 그러나 상대적으로 인공지능의 악의적인 활용에 대해서는 관심이 낮다. 인공지능이 세상을 지배할지도 모른다는 막연한 우려만 있을 뿐이다.

세계 유수의 연구기관은 인공지능의 어두운 면을 구체적으로 공론화해 대안을 마련하기 위한 연구에 착수했다. 첫 번째 결과물로 ‘인공지능의 악의적인 사용에 대한 예측, 예방, 완화’라는 보고서가 최근 발간됐다. 이 보고서는 인공지능으로 인한 일자리 변화를 분석한 영국 옥스퍼드대와 미래인류연구소, 인간친화적인 인공지능 기술 개발 비영리단체 OpenAI 등 7곳이 공동으로 작성했다.

인공지능의 고도화에 따른 위협은 다양한 종류의 보안 이슈와 직결된다.


먼저 디지털 보안 분야는 인공지능을 활용한 사이버 공격의 고도화 문제가 가장 크다. 이와 함께 학습 데이터의 오염으로 인한 인공지능의 오작동, 사람처럼 말하는 인공지능을 활용한 피싱 범죄, 소프트웨어의 취약점을 이용한 해킹 등 다양한 문제를 일으킬 수 있다. 물리적인 보안 분야에서도 문제가 발생할 것이다. 드론을 활용한 공격, 자동화 무기의 해킹을 통한 원격 조작, 자율주행차의 악의적 활용처럼 물리 보안 분야는 우리의 삶에 막대한 피해를 입힐 가능성이 높다.

이번 보고서에서는 인공지능의 악의적인 위협에 대응하기 위해 몇 가지 원칙을 제시했다.

우선 정책 입안자는 반드시 인공지능 연구자와 협업해 악의적인 인공지능의 활용에 대한 예방책을 제시해야 한다는 것이다. 인공지능 연구 개발자는 기술의 양면성을 인지하고 부정적으로 사용될 경우에 대한 파급효과를 심도 있게 고려해야 하며 양면성은 모범 사례를 통해 증명돼야 한다는 부분을 제안했다. 또 구체적인 대안을 모색하기 위해 인공지능 기술의 공개와 관련된 모델 개발, 인공지능 연구자의 책임 의식 제고를 위한 윤리 교육, 정책적인 개입을 통한 안전한 인공지능 개발 등을 향후 연구 분야로 제시했다.

이 보고서는 인공지능의 고도화에 따른 역효과를 심도 있게 다룬 점에서 인공지능 기술 개발에만 집중하고 있는 현재의 상황을 돌이켜보는 역할을 했다고 생각한다. 인공지능과 인류의 성공적인 공존을 위해 악의적인 인공지능 예방을 위한 연구가 더욱 활성화되길 기대한다.
2018-03-06 29면
페이스북 트위터 카카오스토리 밴드 블로그

/

    건강나누리캠프

서울Eye - 포토더보기