뷰페이지

지식인 1000명의 경고… “킬러 로봇, 핵보다 더 위험”

지식인 1000명의 경고… “킬러 로봇, 핵보다 더 위험”

박기석 기자
박기석 기자
입력 2015-07-28 23:56
업데이트 2015-07-29 02:08
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

호킹 등 “인공지능 무기 금지” 공개서한

전 세계 지식인과 인공지능 전문가 1000여명이 냉전 이후 새로운 군비 경쟁을 가져올 전쟁용 ‘킬러 로봇’의 금지를 요구하고 나섰다.

영국 천체물리학자 스티븐 호킹, 미국 스페이스엑스의 최고경영자 일론 머스크, 애플의 공동 설립자 스티브 워즈니악, 언어학자 놈 촘스키 등은 인공지능에 기반한 무기의 개발과 활용을 금지할 것을 촉구하는 공개서한을 27일(현지시간) 발표했다. 1000여명의 전문가가 공개서한에 서명했다.

공개서한 작성을 주도한 생명의미래재단(FLI)은 인터넷전화업체 스카이프의 공동 설립자 얀 탈린이 지난해 설립한 비영리 과학단체다. FLI는 인공지능 개발에 따르는 위험을 연구하고 이에 대처하는 활동을 주로 하며 호킹과 머스크가 자문을 맡고 있다.

전문가들은 공개서한에서 인공지능 무기가 핵무기보다 더 위협적이라고 경고했다. 이들은 “인간의 개입 없이 독자적으로 목표물을 판별해 공격할 수 있는 무기 체계의 개발은 화약과 핵무기의 발명에 이은 전쟁 분야의 3차 혁명”이라고 말했다. 이어 “인공지능 무기는 핵무기와 다르게 비싸고 희소한 원료를 필요로 하지 않는다”며 “기술이 발전하면 주요 강대국은 인공지능 무기를 대량 생산할 수 있을 것”이라고 강조했다.

이들은 인공지능 무기가 대량 생산돼 전 세계 국가들이 군비 경쟁을 벌이는 상황을 우려했다. 또한 인공지능 무기가 경쟁적으로 생산된다면 암시장을 통해 국민을 통제하려는 독재자, 소수 인종을 청소하려는 군벌, 테러리스트의 손에 인공지능 무기가 들어가는 것은 시간문제라고 경고했다. 이들은 “인공지능 무기는 암살, 국가 전복, 국민 탄압, 그리고 특정 민족 학살의 임무를 수행하는 데 최적의 수단”이라며 “이에 인간의 통제를 받지 않는 인공지능 무기의 개발 및 활용을 금지해 새로운 군비 경쟁을 막아야 한다”고 강조했다.

그러나 전문가들의 우려 속에서도 인공지능 무기의 연구·개발은 활발히 진행되고 있다. 미국 국방부는 전 세계에서 로봇 연구에 막대한 규모의 지원을 하는 단체 중 하나다. 2013년에는 750만 달러(약 87억원)를 로봇 연구를 수행하는 대학과 기관에 지원했다. 영국은 무기용 로봇 연구·개발에 있어 미국보다 더 엄격한 규정을 가지고 있었으나 최근 이 규정에 반대하는 목소리가 높아지고 있다.

인공지능 기술을 활용한 공중 무기는 이미 상당한 수준까지 개발돼 있다. 미 해군은 2013년에 무인용 드론을 항공모함에 시험 착륙시키는 데 성공했다. 이는 미국이 공습이 가능한 항공모함용 무인 전투기를 개발했다는 의미다. 또한 영국도 같은 해 ‘타라니스’라고 불리는 무인용 전투기의 시험 비행에 성공한 바 있다.

파이낸셜타임스는 미국 등 서구의 강대국이 이처럼 인공지능 연구에 박차를 가하는 이유는 새로 전개될 군비 경쟁에서 중국과 같은 잠재적 적들에게 뒤처질 수 있다는 두려움 때문이라고 분석했다.

박기석 기자 kisukpark@seoul.co.kr
2015-07-29 15면

많이 본 뉴스

  • 4.10 총선
저출생 왜 점점 심해질까?
저출생 문제가 시간이 갈수록 심화하고 있습니다. ‘인구 소멸’이라는 우려까지 나옵니다. 저출생이 심화하는 이유가 무엇이라고 생각하시나요.
자녀 양육 경제적 부담과 지원 부족
취업·고용 불안정 등 소득 불안
집값 등 과도한 주거 비용
출산·육아 등 여성의 경력단절
기타
광고삭제
위로