뷰페이지

‘차별하는 AI’ 법적 규제 가능할까

‘차별하는 AI’ 법적 규제 가능할까

진선민 기자
입력 2021-01-12 17:20
업데이트 2021-01-12 17:26
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

‘이루다’ 논란으로 본 해외 사례

편향성 조사 등 美·EU 입법 움직임
“과잉 규제보다 가이드라인 마련부터”

‘혐오의 학습화’ 논란을 불러일으키면서 지난 11일 서비스가 중단된 인공지능(AI) 챗봇 ‘이루다’ 사태는 인공지능 윤리에 관한 숙제를 남겼다. 한국보다 앞서 인공지능 기술을 상용화한 해외에서는 인공지능에 의한 차별·혐오 문제를 어떻게 다루고 있을까.

12일 법조계 등에 따르면 각국의 인공지능 규제는 크게 의회 입법을 통한 하드 로(hard law)와 법적 구속력이 없는 소프트 로(soft law)로 나뉜다. 지난해 12월 한국 정부가 발표한 ‘국가 인공지능 윤리기준’을 비롯해 대부분의 국가에서 규범 차원의 가이드라인을 발표하는 추세지만 일각에서는 입법 움직임도 시작되고 있다.

2017년 미국 뉴욕시의회에서 통과된 ‘알고리즘 책임 법안’이 대표적이다. 이 법안은 뉴욕시에서 구성한 특별위원회를 통해 시에서 사용되는 인공지능 알고리즘에 연령·인종·성별 등에 따른 차별 요소가 없는지 조사를 의무화하는 것을 주요 내용으로 한다. 2019년 4월 미 상원에서 대기업의 머신러닝 시스템을 감독하기 위한 동명의 법안이 발의되기도 했다.

특히 인공지능이 치안·금융·행정·교육 등 각종 영역에 상용화되면서 편향적인 알고리즘이 실제 피해로 이어질 수 있다는 지적이 나온다. 일례로 미국 아마존은 수년간 개발해 온 인공지능 기반 채용 시스템이 기존의 성차별적 관행을 답습해 여성에게 불리한 평가를 한다는 사실이 알려져 2018년 시스템 개발을 중단했다. 유럽연합(EU) 의회도 지난해 10월 포괄적인 AI법 권고안을 채택했다. 인공지능 기술이 심각한 윤리 원칙을 위반할 경우 인공지능의 자기학습능력을 비활성화하고 완전한 인간 통제하에 놓이도록 복원하는 내용이 담겼다. 향후 인공지능 법률을 제정할 때 투명성과 책임성, 편향과 차별에 대한 보호 등 지침이 준수되도록 했다.

다만 전문가들은 현 단계에서는 법적 규제보다 가이드라인의 세분화·다양화를 우선적인 과제로 꼽는다. 한국인공지능법학회장인 고학수 서울대 법학전문대학원 교수는 “구체적으로 무엇을 어떻게 규제할지 충분히 논의되지 않았기 때문에 지금 당장 입법을 하는 것은 불가능하다”면서 “기본적인 윤리 원칙을 다양한 개별 상황에 어떻게 적용할지부터 세부적인 가이드라인을 먼저 마련해야 한다”고 말했다.

기업 차원에서 적극적인 자정 노력이 필요하다는 지적도 나온다. ‘이루다’와 유사하게 2016년 차별·혐오 논란에 휩싸여 출시 16시간 만에 운영 중단된 마이크로소프트(MS)의 챗봇 ‘테이’ 사태 이후 MS가 사내 윤리위원회를 만들고 윤리 기준을 마련한 것이 참고할 만한 사례로 꼽힌다.

진선민 기자 jsm@seoul.co.kr
2021-01-13 2면

많이 본 뉴스

  • 4.10 총선
저출생 왜 점점 심해질까?
저출생 문제가 시간이 갈수록 심화하고 있습니다. ‘인구 소멸’이라는 우려까지 나옵니다. 저출생이 심화하는 이유가 무엇이라고 생각하시나요.
자녀 양육 경제적 부담과 지원 부족
취업·고용 불안정 등 소득 불안
집값 등 과도한 주거 비용
출산·육아 등 여성의 경력단절
기타
광고삭제
위로