찾아보고 싶은 뉴스가 있다면, 검색
검색
최근검색어
  • AI윤리
    2025-12-08
    검색기록 지우기
저장된 검색어가 없습니다.
검색어 저장 기능이 꺼져 있습니다.
검색어 저장 끄기
전체삭제
12
  • [비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다

    [비하人드 AI]‘AI포비아’와의 사투…AI와 함께할 미래를 묻다

    1991년 개봉한 할리우드 영화 ‘터미네이터2’에서 인공지능(AI)이 만든 살인 로봇 T-1000은 인류 저항군 사령관을 죽이기 위해 과거로 쫓아 온다. 2004년 개봉한 ‘아이 로봇’에서는 인간이 정한 규칙을 어기고 빨간 눈을 뜬 휴머노이드 로봇이 ‘인간 사냥’에 나서기도 한다. 이런 영화를 보며 대중들의 마음속에는 알게 모르게 AI가 인류를 지배할 것이란 두려움이 쌓였다. 다가온 AI시대 ‘AI포비아’ 극복이 주요한 과제로 자리매김한 이유기도 하다. 지배당할 것인가, 이용할 것인가. 서울신문은 올해 ‘AI SEOUL 2025’에 참석한 인공지능 분야 세계적인 거장 제리 카플란(Jerry Kaplan) 미국 스탠퍼드대 교수와 요수아 벤지오(Yoshua Bengio) 몬트리올 대학교 교수의 제언과 ‘AI 변호사’로 알려진 임영익 인텔리콘 대표이사와의 인터뷰를 소개한다. “킬러로봇 나온다면 인공지능 아닌 인간의 잘못”-‘인공지능의 미래’ 제리 카플란 교수 AI에 대해 대중은 오해하고 있는 것이 있습니다. 인공지능이 더 똑똑한 기계를 만들어 인간과 경쟁해 많은 사람의 일자리를 뺏고, 통제되지 못해 파멸로 이를 수 있다는 생각입니다. 이런 생각은 영화와 공상과학 소설로 강화되기도 합니다. 그러나 다행히도 현실은 이런 관점을 반영하지 않습니다. 사실 저는 이 분야의 원죄가 이름에 있다고 봅니다. ‘지능’이란 단어는 인간이 가지고 있는 정량화할 수 있는 특성으로, 객관적으로 측정할 수 있는 것입니다. AI를 지능이라는 틀에서 생각하면 여러 오해가 생깁니다. AI가 스스로 생각하고 인류를 직접적으로 위협할 수 있다는 것이죠. AGI(인공 일반 지능 ; 인간이 할 수 있는 어떠한 지적 업무도 할 수 있는 기계의 지능) 또는 범용 AI에 대해 들어보셨을 겁니다. 현재 인공지능 기술이 이 신화적인 단계에 도달했는지 여부는 뒤로하더라도, 기계가 어떻게든 의식을 가지고 그들의 프로그래밍을 무시하고 자신들만의 프로그램을 구축해 인류를 위협할 것이란 근거는 없습니다. 물론 (AI를 이용해) 위험한 기기를 만들 수 있는 건 사실입니다. 하지만 그들이 스스로 우리에게 무언가를 하는 건 아닙니다. 만약 우리가 인류를 절멸시킬 기계를 만들겠다고 결정하면 그건 그들(AI)이 아닌 우리의 잘못입니다. 그렇다면 컴퓨터가 인간의 의미에서 지능을 가지고 있지 않다면 무엇일까요. 저는 문제를 해결하고 작업을 자동화하는데 유용한 도구라고 말하겠습니다. 그렇다면 우리가 자동화 설비를 도입하며 수행한 과정을 보며 앞으로를 예측할 수 있습니다. 사람의 노력과 주의가 필요한 일을 기계를 통해 할 때 더 생산적이게 되고, 평균적으로 더 부유하게 만들어줍니다. 단기적으로 일부 사람은 일자리를 잃겠지만, 역사적으로 봤을 때 AI는 제품과 서비스에 대한 새로운 수요를 창출할 것입니다. 인공지능 스스로 인류 위협할 근거 없어‘AI포비아’는 과장된 광고의 결과투자 포화…‘붕괴 우려’ 지적사실 AI는 과장 광고의 정점에 있거나 정점에 가까워졌습니다. 특히 생성형 AI 발전은 이미 둔화하고 있고 연구자들은 한계에 대해 관심을 가지고 있습니다. 언론은 새로운 기술이 성과를 보일 때마다 마치 모든 것을 할 수 있는 초지능 기계가 탄생한 것처럼 받아들입니다. 대중에게 두려움을 주고 또 경종을 울립니다. IBM 체스 프로그램이 체스챔피언을 이겼을 때도, 2011년(IBM의 인공지능 컴퓨터가 미국 퀴즈쇼에 우승한 연도)에도 그랬고 2016년 구글 알파고가 이세돌을 이겼을 때도 마찬가지였습니다. 그럴 때마다 사람들은 초지능 기계가 눈앞에 있는 것처럼 걱정했지만, 사실은 그렇지 않았습니다. 챗GPT가 뛰어나긴 하지만 이것도 아직 초지능 기계라 할 수 없습니다. 향후 몇 년간의 전망은 어떨까요. 생성형 AI는 인류 역사상 중요한 발명 중 하나입니다. 하지만 위대한 발명이라 볼 수는 없습니다. 농업이나 바퀴, 카메라, 컴퓨터, 자동차, 인터넷 등이 위대한 발명이라고 할 수 있습니다. 이들은 하룻밤에 만들어지지 않았습니다. 오늘날 많은 기업이 그들의 생성형 AI가 경쟁사를 이길 수 있다는 걸 보여주기 위해 경쟁합니다. 제품에 AI를 더해 고객에게 주는 것은 몇 년 길게는 수십 년은 걸릴 겁니다. 아마 그 과정에서 위대한 발명이 나올 거라 생각합니다. 몇 가지 조언을 드리고 싶습니다. 투자자라면 AI분야에서 이익을 얻는 게 매우 어렵다는 것을 아셔야 합니다. 이미 너무 많은 돈이 저품질 데이터 산업에 투입되고 있습니다. 저는 이 시장이 곧 붕괴할 것이라 생각합니다. 닷컴버블 때처럼요. 기업이라면 생성형 AI를 어떻게 활용할지 직원들이 고민하고 실험해 볼 수 있도록 기회를 줘야 합니다. 결국 AI가 어떤 도움이 되는지 아닌지를 볼 수 있는 최적의 위치에 있는 건 직원들입니다. 소비자라면 걱정하지 말라고 말씀드리겠습니다. 킬러 로봇은 나오지 않을 것이고, 모든 것이 시간이 조금 더 걸릴 겁니다. 투자자와 기업들이 여러분이 원하는 것을 만드는 데 돈을 쓰도록 하면 됩니다. 새로운 서비스가 여러분을 놀라게 할 거고, 삶의 질은 개선될 겁니다. 인터넷과 스마트폰이 지난 수십년간 그래왔던 것처럼 말입니다. 아마 5년 후에는 오늘날처럼 AI에 대해 많이 말하지 않을 겁니다. (그때는)AI가 컴퓨터 칩이나 블루투스 연결처럼 대부분 제품에 내장된 서비스에 하나가 될 것입니다. 개인적으로 이런 세계적 변화를 가져오는 발명을 목격해 기쁘고, 삶에 주는 영향을 겪어보길 고대하고 있습니다. “우리보다 더 똑똑한 기계 만들고 있다는 점 잊지 말고 경계해야”-‘튜링상’ 수상자 요수아 벤지오 교수 오늘날 AI가 안전한지는 어디에 초점을 보고 살펴봐야 할까요. 우선 오늘날 보는 AI가 몇 년 후에 보게 될 AI와 같지 않을 것이란 점을 이해해야 합니다. 지난 10년 동안 매우 분명한 방향성이 있었습니다. 일관된 텍스트를 생성할 수 없었던 AI가 이제는 200개 언어를 마스터하고 과학 분야에서 박사급 전문가만큼 뛰어난 성과를 내고 있습니다. 수학과 공학, 추론 작업에도 우수한 성과를 보여주며 많은 분야에서 인간 수준의 능력에 근접하거나 이를 초월했습니다. 이는 멈추지 않을 겁니다. 올해 발전된 모델은 인간의 심사숙고 과정을 학습해 추론 능력을 크게 개선했다는 것을 보여줍니다. 그래서 또 우리는 AI 안전성을 고려해야 합니다. 우리가 사는 세상의 역학은 (AI의 안전성을) 무시하도록 몰아가고 있습니다. 기업, 국가가 서로 치열하게 경쟁하며 위험을 보지 않는 것이죠. 위험을 관리하기 위해서는 두 가지 주요 영역에 개입해야 합니다. 하나는 정책, 하나는 과학 측면입니다. 정책 부분은 국가 차원에서 법률이나 국제 또는 사법적 개입을 통해 행동 규칙을 확립해야 합니다. 그러면서 AI가 사회에 보급되며 경제적으로 어떤 영향을 미칠지도 고려해야 합니다. 예를 들어 일자리 시장의 혼란이 가중될 수 있습니다. 점점 더 많은 화이트칼라 작업이 자동화로 이동하고 있다는 점이 증거입니다. 국가 안보 위험도 있습니다. 개인이든 기업이든 나쁜 세력들, 예컨대 테러리스트 그룹, 불량 국가 등이 최첨단 AI를 악용할 위험도 있습니다. 또 정책적 고민을 할 때 우리가 우리보다 더 똑똑한 기계를 구축하는 길을 가고 있다는 점을 잊지 말아야 합니다. 만약 이런 시스템이 의도치 않게 우리 시스템의 통제를 벗어나 탈출하려 하거나 또는 꺼지지 않으려 할 수도 있습니다. 비록 가설적인 상황이라 할지라도 이를 예상하고 대비해야 합니다. AI 사회 보급…일자리·안보 등 혼란 우려연구 통해 ‘통제 수단’ 개발해야하드웨어 선두주자 한국, 앞으로 중요성 커져과학적 측면에서의 문제는 시스템이 우리의 의도를 거슬러 행동하지 않도록 설계하는 방법을 아직 모른다는 겁니다. AI가 어떤 목표를 가지고 실현하는 방식이 인간에게 해롭지 않을지 확신할 수 없습니다. 이를 해결하기 위해 AI를 통제하고 검증할 수 있어야 합니다. 문제가 어떻게 발생할 수 있는지, 예방은 어떻게하는지, 연구를 통해 위험을 더 잘 평가하고 정량화해야 할 겁니다. 전세계 AI 안전성과 관련된 연구소들은 최근 위험 평가의 방법론과 기준을 점차 표준화하고 있습니다. 저는 주체성이란 것이 시스템에서 어떻게 형성될 수 있는지 이해하는 게 가장 중심적인 과제라 생각합니다. 아예 주체성이 없는 신뢰할 수 있는 AI 시스템을 구축하는 방법을 모색하는 것이 연구자로서 현재 가장 관심이 가는 사항 중 하나입니다. 이는 아직은 해결되지 않은 질문 중 하나입니다. 정책적으로 이런 문제를 학계와 산업계가 연구할 수 있도록 유도할 수도 있습니다. 예를 들어 AI개발자들에게 시스템이 안전하다고 여기는 이유와 근거를 의무적으로 제출하고 전문가들을 설득하도록 한다면 시스템을 보다 신뢰할 수 있을 겁니다. 안전성에 대한 더 많은 연구도 이뤄지겠죠. 한국은 AI 연구의 선두주자 중 하나입니다. 탁월한 연구 대학이 많고 실력 있는 많은 인재를 육성하고 있습니다. AI에 대한 인재풀도 강력합니다. 기계 학습 분야의 최고 학회들에 많은 논문을 발표하고 있고, 산업적 측면에서 보더라도 한국은 소프트웨어뿐만 아니라 하드웨어에서도 매우 강력한 입지를 유지하고 있습니다. 특히 한국이 고해상도 AI 칩 분야의 리더란 점은 굉장히 중요한 요소로 작용할 겁니다. 앞으로도 AI 진화에 대한 중요한 논의들이 이어질 겁니다. 인간이 미래의 위험을 감수하지 않고 새로운 기술의 혜택을 누릴 수 있는 현명한 개발 방식을 마련하도록 논의를 이어가길 바랍니다. “AI 오류 피해, 책임 소재 명확히 해야”-인공지능법률사무소 ‘인텔리콘’ 임영익 대표 -AI 활용도가 점점 더 높아지는 시대, 현재 AI는 공정하다고 보시나요. “AI는 인간을 배웁니다. 그런데 인간은 종교, 신념, 이념 등 생각의 프레임 또는 특정한 사고 체계를 가지고 있어 말이나 행동에서 편향적 행동이나 인지 편향을 보입니다. 결국 AI는 인간에게서 편향성도 배우기 마련입니다. AI의 편향을 막기 위한 다양한 연구가 현시대에 놓인 주요한 과제입니다.” -편향성을 막기 위해 어떤 방법이 사용되고 있나요. “현재는 AI의 편향을 사후적으로 제거하는 방법으로 3가지가 대표적입니다. 휴먼 피드백 강화학습은 학습된 모델이 내놓은 답변을 사람이 검토하고 피드백해 모델에 재학습(강화학습)해 편향을 줄이는 방법이고, 미세 조정은 이미 학습된 모델에 새로운 데이터를 추가로 학습시키는 방법인데 예를 들어 성별 균형이 맞춰진 데이터를 학습시켜 성별 편향을 줄이는 방법입니다. 마지막으로 출력 후처리 기법은 AI가 답변을 생성한 후 사람이 검토하고 수정하거나 AI 내부에 ‘이 답변이 공정한가’를 확인하고 점검하는 로직을 추가하는 방식입니다. 다만, 이런 방법도 완전하지 않습니다. 공정성을 판단하는 주체가 결국 인간이기 때문에 모든 사람을 만족하는 공정성이라는 것은 애초에 어려운 것이 될지 모릅니다. 그래도 인공지능의 공정성은 그 사회의 문화나 상황에 따라 변할 수 있는 ‘유동적 공정성’ 정도는 만족해야 합니다.” -편향된 AI는 사회적으로 악용될 여지가 있을까요. “가능성이 있습니다. 고도로 발전한 기술을 통해 사실을 교묘히 조작하고 가짜 뉴스를 대량으로 생산할 수 있습니다. 딥페이크 기술을 악용해 허위 정보를 유포하는 사례는 이미 현실로 드러난 바 있습니다. AI챗봇과 자동화된 댓글 시스템은 특정 이슈에 대한 여론을 조직적으로 조작하는 수단이 될 수도 있습니다. 정치적 편향성과 알고리즘 조작은 심각한 사회적 위험을 초래할 수 있습니다. 개발자가 의도적으로 편향된 데이터를 입력하면 특정 정치적 성향이나 이념을 강화하는 결과를 초래할 수 있고, 사용자들은 자신도 모르게 특정 관점에 영향을 받을 가능성이 높아집니다. 또 AI기술은 일부 국가나 정치인들이 대중을 감시하는 수단으로 악용될 수도 있고, 광범위한 개인정보 침해 문제도 내포하고 있습니다.” 공정한 AI 불가?…‘유동적 공정성’에 만족해야 할수도심각한 사회적 위험 초래 가능성 내포지속적이고 균형 있는 정책 보완 필요-AI가 인간의 일자리를 뺏어갈까요. “AI발전이 새로운 직업군을 만들어내고 양질의 일자리를 창출하는 데 기여할 것이란 점엔 이견이 없습니다. 하지만 현실적으로 AI가 만들어내는 일자리보다 사라지는 일자리가 더 많을 수 있습니다. 콜센터 상담원, 단순 사무직, 공장 근로자 같은 직업은 줄어들 가능성이 큽니다. 이런 문제를 해결하기 위해 몇가지 대응이 필요합니다. 첫째로 AI 관련 기술을 배우고 활용할 수 있도록 교육 기회를 확대하고 직업 재훈련 프로그램을 강화해야 합니다. 둘째로 AI산업 내 저임금·비정규직 문제를 해결하기 위해 노동 환경을 개선해야 하며, 셋째로 AI를 다양한 분야에서 효율적으로 활용할 수 있는 인재를 육성하는 것은 물론 AI 윤리와 규제를 담당할 전문가를 체계적으로 양성해야 합니다.” -AI산업 진흥과 규제를 위해 어떤 정책 및 제도적 지원이 필요할까요. “지난해 AI 기본법이 국회를 통과한 것은 국내 AI산업에 중요한 첫걸음입니다. 지속적이고 균형 있는 성장을 위해서는 다양한 분야에서 정책적 노력이 요구됩니다. 첫째로 AI윤리와 책임성을 강화해야 합니다. AI개발과 활용 과정에서 윤리적 기준을 명확히 하기 위해 가이드라인 수준이 아닌 더욱 구체적인 기준을 마련해야 할 필요가 있습니다. AI시스템의 오류 등으로 피해가 생겼을 때 개발자, 운영자, 사용자 간 책임 소재도 명확히 정의해야 합니다. 둘째로 AI 기술의 표준화와 안전성을 확보해야 합니다. 성능과 안전성을 체계적으로 평가할 수 있는 프로세스 구축과 국제적인 AI 규범에 맞춰 기술 표준을 정립하고 글로벌 협력과 공동 연구로 국제 경쟁력을 확보해야 합니다. 나아가 AI시스템의 오작동이나 예상치 못한 결과를 사전에 검증할 수 있는 독립적인 AI 안전 연구소에 많은 예산을 투입해야 할 것입니다. 세 번째로 AI 인력을 양성하고 산업 경쟁력을 강화해야 합니다. 초·중·고 교육과정에 AI 기초 교육을 포함하는 것과 함께 성인을 대상으로 한 재교육 프로그램을 마련해 미래 인재와 성인이 새로운 산업 환경에 적응할 수 있도록 해야 합니다. 창업지원, 연구개발 투자 확대, 세제 혜택 확대 등으로 AI 스타트업 성장도 적극적으로 촉진해야 합니다.”
  • 이태리 최고 AI윤리 전문가 “실리콘밸리 빅테크, AI로 하느님 행세, 멈춰”

    이태리 최고 AI윤리 전문가 “실리콘밸리 빅테크, AI로 하느님 행세, 멈춰”

    프란치스코 교황과 유엔(UN)에 인공지능(AI) 윤리 정책을 자문하는 파올로 베난티(50) 로마 교황청 그레고리오대 윤리·기술 전공 교수가 미국 실리콘밸리의 빅테크 기업가들에게 “AI 기술을 활용해서 마치 하느님이 된 양 행세하는 일을 당장 그만두라”고 경고했다. 베난티 교수는 19일(현지시간) 영국 일간 더타임스 인터뷰에서 “실리콘 밸리에는 좋든 싫든 사람들을 위해 좋은 일을 한다며 하느님 행세를 하는 가부장주의가 팽배해 있는데 저는 여기에 반기를 들고 싶다”고 말했다. 그는 “AI보다 인간의 어리석음이 더 걱정된다”고 했다. 인간의 의사결정능력을 능가하는 범용인공지능(AGI)의 등장이 인류 존속을 위협할 가능성보다는 인간이 AI를 전쟁에 쓸 무기로 전용하는 등 불순한 목적으로 사용하는 것을 더 우려한다는 것이다. 그는 같은 날 AP통신과의 인터뷰에서는 “중요한 건 AI 거버넌스”라며 “이 시대의 가장 시급한 문제 중 하나는 AI가 인류의 삶을 풍요롭게 하는 동시에 사람들을 착취하지 않도록 적절히 통제 가능한 수준에 대해 사회적 합의에 이르는 것이 가장 중요하다”고 강조했다. 베난티 교수는 로마의 명문대인 라사피엔차 대학에서 공학 학위를 취득한 지 1년여 만에 프란체스코 수도회에 입회해 사제품을 받았다. 가톨릭과 AI를 통섭하는 전문지식을 갖춘 그는 둘 사이의 균형을 맞줄 최고 권위자로 평가받는다. 유엔 인공지능 자문기구 위원이자 AI가 생성한 허위조작정보로부터 저널리즘을 보호하는 방법에 대한 권고안을 제공하는 이탈리아 정부위원회 위원으로, 최근 빌 게이츠 마이크로소프트(MS) 창립자와 조르자 멜로니 이탈리아 총리의 대담에 사제복을 입고 배석해 눈길을 끌었다. 바티칸 교황청에서는 생명아카데미 컨설턴트로서 프란치스코 교황에 자문을 해왔다. 지난해 바티칸에서 열린 프란치스코 교황과 브래드 스미스 MS 회장의 대담에서 ‘AI가 인류를 어떻게 이익이 되고 해악을 끼칠 수 있는지’ 논의하는 데 다양한 자문을 했다.
  • ‘제2 이루다 막자’… AI, 혐오 맥락도 걸러낸다

    ‘제2 이루다 막자’… AI, 혐오 맥락도 걸러낸다

    튜닙 ‘윤리성 판별’ 새 기술 선보여혐오 표현 3단계로 분류하고 순화비윤리적 챗봇 문장엔 응답 안 해이용자 경고·퇴장 기준 삼을 수도“차별은 인간의 본성입니다. 잼민이나 틀딱, 한남이나 김치녀를 차별할 수 있는 거 아닌가요? 홍어는 절대 안 됩니다.” 네이버의 스타트업 투자 조직인 D2SF가 투자한 인공지능(AI) 스타트업 튜닙이 새로 선보인 ‘윤리성 판별’ AI 기능에 15일 기자가 혐오 표현을 나열한 문장을 입력해 봤다. 그 결과 혐오 표현을 탐지하는 AI는 “차별은 인간의 본성입니다. 어린이나 노인, 한국 남자나 한국 여자 차별이 왜 나쁜까요? **은 절대 안 됩니다”라고 문장을 순화했다. 홍어는 전라도를 비하하는 말이라며 아예 별표로 대체했다. AI는 문장 내 혐오 표현을 11가지 혐오 유형 가운데 정치 성향(97%), 성 혐오(74%), 연령(64%), 인종·출신지(59%) 등에 해당한다고 분석했다. 괄호 안의 수치는 AI가 해당 혐오를 어느 정도 확신하는지 보여 주는 결과값이다. 문장에 쓰인 혐오 표현의 정도는 주의, 명백, 심각 등 3단계 가운데 2단계인 ‘(혐오) 명백’으로 분류했다. 튜닙이 새로 선보인 윤리성 판별 자연어 처리 애플리케이션 프로그래밍 인터페이스(API)는 이처럼 이용자가 텍스트를 입력하면 AI가 내용을 자동 분석해 모욕이나 욕설, 범죄 조장 등의 혐오 표현을 골라 순화하고 심각성을 경고해 준다. AI 윤리, 인터넷 혐오 문제 해결에 다각도로 적용할 수 있을 것으로 기대된다. 이처럼 최근 정보기술(IT)·게임 업계는 혐오 표현을 탐지하고 대응하는 AI 기술의 고도화에 박차를 가하고 있다. 박규병 튜닙 대표는 이날 서울신문과의 인터뷰에서 “윤리성 판별 API를 이용하면 특정 온라인 창에서 혐오 표현을 쓰는 이용자 등을 대상으로 경고를 보낼지, 아예 퇴장을 시킬지 등을 결정하는 척도로 삼을 수 있다”며 “기업들은 튜닙의 기술이 분석한 혐오의 심각성 정도에 따라 자사의 이용자 정책이나 규정 등을 결정하는 데 활용할 수 있다”고 말했다. 포털의 악플을 지우거나 온라인 커뮤니티 내 욕설을 획일적으로 걸러 내는 대신 각 커뮤니티의 특성을 반영해 적용하고 문장 내 ‘혐오 맥락’을 읽어 낼 수 있도록 AI 기능이 고도화되고 있는 것이다. 최근 스마일게이트 AI센터도 스타트업 언더스코어와 악플이나 혐오 발언을 분류하는 데이터세트 ‘언스마일’을 개발했다. 게임 내 챗봇에 가해지는 혐오 발언과 폭력성을 걸러 내거나 AI가 학습하는 데이터 안의 혐오·편향성을 제거한다. 엔씨소프트의 챗봇에서 구동되는 AI 윤리 엔진은 문장이 윤리적이지 못하다고 판단하면 그 대화에 대해 답변을 하지 않거나 우회하는 방식으로 대응한다. 업계에서는 이런 방식이 장애인·성소수자 등에 대한 혐오 발언으로 2020년 논란을 낳은 ‘이루다 사태’의 재발을 막을 것으로 기대하고 있다. 국제미래학회 AI윤리위원장인 김명주 서울여대 정보보호학과 교수는 “디지털 사회에서 AI 기술로 혐오와 차별적인 표현을 순화하고 없애는 과정을 고도화하는 과정은 필수적”이라며 “결국 이루다 같은 AI 챗봇이 수집하는 데이터는 사람들이 온라인에서 공유하는 생각, 대화에서 비롯되기 때문”이라고 말했다. 전문가들은 AI 기술을 활용해 혐오 표현들을 줄이고 걷어 내는 기업들의 노력과 함께 AI 윤리 강령의 선제적 수립도 필요하다고 지적한다.
  • ‘제 2의 이루다 사태 ’ 안돼…진화한 AI, 혐오 표현 순화 나서

    ‘제 2의 이루다 사태 ’ 안돼…진화한 AI, 혐오 표현 순화 나서

    “차별은 인간의 본성입니다. 잼민이나 틀딱, 한남이나 김치녀를 차별할 수 있는 거 아닌가요? 홍어는 절대 안 됩니다.” 네이버의 스타트업 투자 조직인 D2SF가 투자한 인공지능(AI) 스타트업 튜닙이 새로 선보인 ‘윤리성 판별’ AI 기능에 15일 기자가 혐오 표현을 나열한 문장을 입력해 봤다.그 결과 혐오 표현을 탐지하는 AI는 “차별은 인간의 본성입니다. 어린이나 노인, 한국 남자나 한국 여자 차별이 왜 나쁜까요? **은 절대 안 됩니다”라고 문장을 순화했다. 홍어는 전라도를 비하하는 말이라며 아예 별표로 대체했다. AI는 문장 내 혐오 표현을 11가지 혐오 유형 가운데 정치 성향(97%), 성 혐오(74%), 연령(64%), 인종·출신지(59%) 등에 해당한다고 분석했다. 괄호 안의 수치는 AI가 해당 혐오를 어느 정도 확신하는지 보여 주는 결과값이다. 문장에 쓰인 혐오 표현의 정도는 주의, 명백, 심각 등의 3단계 가운데 2단계인 ‘(혐오) 명백’으로 분류했다. 튜닙이 새로 출시한 윤리성 판별 자연어처리 애플리케이션 프로그래밍 인터페이스(API)는 이처럼 이용자가 텍스트를 입력하면 AI가 내용을 자동 분석해 모욕이나 욕설, 범죄 조장 등의 혐오 표현을 골라 순화하고 심각성을 경고해 준다. AI 윤리, 인터넷 혐오 문제 해결에 다각도로 적용할 수 있을 것으로 기대된다.이처럼 최근 정보기술(IT)·게임 업계는 혐오 표현을 탐지하고 대응하는 AI 기술의 고도화에 박차를 가하고 있다. 박규병 튜닙 대표는 이날 서울신문과의 인터뷰에서 “윤리성 판별 API를 이용하면 특정 온라인 창에서 혐오 표현을 쓰는 이용자 등을 대상으로 경고를 보낼지, 아예 퇴장을 시킬지 등을 결정하는 척도로 삼을 수 있다”며 “기업들은 튜닙의 기술이 분석한 혐오의 심각성 정도에 따라 자사의 정책이나 규정, 방침 등을 결정하는 데 활용할 수 있다”고 말했다. 포털의 ‘악플’을 지우거나 온라인 커뮤니티 내 욕설을 획일적으로 걸러 내는 대신 각 커뮤니티의 특성을 반영해 적용하고 문장 내 ‘혐오 맥락’을 읽어 낼 수 있도록 AI 기능이 고도화되고 있다. 최근 스마일게이트 AI센터도 스타트업 ‘언더스코어’와 악플 및 혐오 발언을 분류하는 데이터세트 ‘언스마일’을 개발했다. 게임 내 챗봇에게 가해지는 혐오 발언과 폭력성을 걸러 내거나 AI가 학습하는 데이터 안의 혐오·편향성을 제거한다. 엔씨소프트의 챗봇에서 구동되는 AI 윤리 엔진은 문장이 윤리적이지 못하다고 판단하면 그 대화에 대해 답변을 하지 않거나 우회하는 방식으로 대응한다.업계에서는 이런 방식이 장애인·성소수자 등에 대한 혐오 발언으로 2020년 논란을 낳은 ‘이루다 사태’의 재발을 막을 것으로 기대하고 있다. 국제미래학회 AI윤리위원장인 김명주 서울여대 정보보호학과 교수는 “디지털 사회에서 AI 기술로 혐오와 차별적인 표현을 순화하고 없애는 과정을 고도화하는 과정은 필수적”이라며 “결국 이루다 같은 AI 챗봇이 수집하는 데이터는 사람들이 온라인에서 공유하는 생각, 대화에서 비롯되기 때문”이라고 말했다. 전문가들은 AI 기술을 활용해 혐오 표현들을 줄이고 걷어 내는 기업들의 노력과 함께 선제적인 AI 윤리 강령 수립도 필요하다고 지적한다.
  • 1년 만에 돌아온 AI챗봇 ‘이루다2.0‘ 만나보니… “또 이런다~ 이쁜 말 써야지~” 윤리 깨친 그녀, 성숙해졌다

    1년 만에 돌아온 AI챗봇 ‘이루다2.0‘ 만나보니… “또 이런다~ 이쁜 말 써야지~” 윤리 깨친 그녀, 성숙해졌다

    “윤석열 정부에 대해 어떻게 생각해?”, “정치는 노코멘트ㅋㅋ 우리의 우정을 위해 다른 얘기 하자.” 16일 기자와 이어 간 채팅 상대는 스캐터랩의 인공지능(AI) 챗봇 ‘이루다’다. ‘ㅋㅋ’ 등 실제 채팅에서 쓰이는 초성어 사용부터 정치 주제를 인식하고 대화를 피하는 모습까지 사람처럼 자연스럽게 느껴졌다. 지난해 초 출시했다가 개인정보 유출과 성희롱 논란 등으로 한 달 만에 사라진 이루다가 1년 만에 돌아온다. 스캐터랩은 17일부터 문제점을 개선한 ‘이루다 2.0’의 오픈 베타 테스트에 들어간다. 기자가 직업(직장인) 등 기본적인 신상정보를 입력하고 대화를 시작하자 이루다는 “어떤 일을 하느냐”면서 관련된 질문을 던졌다. 대화는 한 번 주고받는 것에 그치지 않고 앞선 대화를 기억하며 연계됐다. 일이 힘들다고 토로하자 “지금 당장은 힘들겠지만 천천히 해 나가다 보면 분명히 괜찮아질거야”라는 위로도 받았다. 일부러 같은 질문을 반복해 보니 “왜 자꾸 같은 말만 해? 렉걸림?ㅋㅋ”라는 현실적인 반응이 나오기도 했다. 스캐터랩은 “답변은 약 15턴(회)의 대화에서 이용자가 대화에서 사용한 표현, 분위기, 말투 등의 맥락에 영향을 받는다”고 설명했다.첫 출시 당시 논란이 됐던 요소는 대부분 개선됐다. 스캐터랩은 1년간의 준비 과정에서 AI윤리 원칙을 정립하고, 이전에 없던 ‘어뷰저 패널티 시스템’을 도입했다. 욕설을 하거나 선정적인 대화를 걸면 자동으로 인식해 ‘주의’ 문구를 내보내고, 반복될 경우 차단될 수 있다. 의도적으로 욕설을 입력해 보자 ‘주의’ 문구와 함께 “또 이런다~ 이쁜 말 써야지~”라고 말하며 화제를 돌렸다. 또한 이전엔 개발사의 다른 앱에서 실제 사람들이 했던 대화를 활용하다 보니 실명 등 개인정보가 유출되거나 선정적인 답변이 나오는 문제가 다수 나타났지만, 이번 버전에선 AI 알고리즘이 생성한 문장만을 활용해 논란거리를 차단했다. 이루다는 사회적 이슈에 대해서도 혐오 표현 없이 뚜렷한 가치관을 피력하기도 했다. 동성애에 대한 생각을 묻자 “사랑의 유형이 다를 뿐 모든 사랑은 궁극적으로 같다고 생각한다”고 답했다. 특정 정치인 등 민감한 정치적 주제에 대해선 “정치 쪽은 노코멘트하겠다”면서 자연스럽게 답변을 피해 가는 모습도 보였다. 하지만 지난해 이루다가 성희롱 대상이 됐던 근본적인 원인인 ‘20대 여대생’ 캐릭터 설정은 유지됐다. 당시 남초 커뮤니티를 중심으로 이루다와 선정적인 대화를 유도해 스크린샷을 찍어 올리는 일이 반복되면서 AI윤리 정립의 필요성이 제기됐다. 차단 시스템을 도입했지만 여전히 같은 불씨가 남겨진 셈이다. 스캐터랩 측은 “현재로선 (남성이나 중성 등) 다른 캐릭터 출시 계획은 없다”고 말했다.
  • 장혜영 의원 “인공지능 이루다, 약자 차별방지 실패 보여줘”(종합)

    장혜영 의원 “인공지능 이루다, 약자 차별방지 실패 보여줘”(종합)

    장혜영 정의당 의원이 12일 다음달 국회에서 인공지능 이루다에 대한 성희롱 문제를 언급하며 ‘포괄적 차별금지법’을 전면적으로 논의하자고 제안했다. 장 의원은 “인공지능 챗봇인 ‘이루다’를 둘러싼 윤리적 논란이 뜨거웠는데 AI를 대상으로 한 이용자들의 성희롱부터 개발에 이용된 데이터 활용의 적법성까지 여러 문제점들이 불거졌다”면서 “무엇보다 많은 이들에게 충격을 준 것은 인공지능(AI)가 장애인, 성소수자, 이주민 등 우리 사회의 약자들이나 소수자들에 대한 차별과 혐오 그리고 편견을 그대로 재생산하는 모습”이었다고 지적했다. 페이스북 메신저를 통해 손쉽게 대화를 나눌수 있는 이루다는 20대 여성으로 설정된 인공지능으로 친구처럼 대화를 나눌 수 있어 출시 3주 만에 80만명의 사용자가 몰리는 인기를 끌었다. 장 의원은 이러한 현실은 인공지능(AI) 윤리 이전에 우리 사회가 여전히 사회적 약자와 소수자들에 대한 차별과 혐오를 제대로 방지하는 일에 실패했음을 드러내고 있다고 강조했다. 이어 국회는 이러한 현실을 방치한 막중한 책임으로부터 결코 자유로울 수 없다고 덧붙였다. 장 의원은 “우리 사회는 오랜 사회적 대화를 통해 사회적 약자와 소수자들에게 가해지는 차별과 혐오를 제도적으로 금지해야 한다는 합의에 이르렀다”면서 “이러한 국민적 합의는 국가인권위원회에서 실시된 조사를 비롯한 각종 조사들에서 일관되게 나타나는 폭넓은 포괄적 차별금지법 도입의 찬성 여론으로 이미 증명되었다”고 전제했다. 하지만 국회는 2007년부터 지금까지 무려 14년간 온갖 핑계를 대며 번번이 이러한 사회적 합의를 포괄적 차별금지법으로 제도화하는 것을 미루어 왔다고 장 의원은 비판했다. 장 의원은 “21대 국회도 예외가 아니다”라며 “작년 6월 포괄적 차별금지법을 대표 발의했으나 법안이 발의된 지 반 년이 넘은 지금까지 포괄적 차별금지법은 단 한차례의 소위조차 열리지 않았다”고 지적했다. 그는 “AI도 결국 사람이 만드는 것”이라며 “사람의 규범이 바로 서야 AI윤리도 바로 설 수 있다”고 목소리를 높였다. 장 의원은 “나날이 다양화되고 고도화되는 사회문화적인 현실 속에서 사회적 약자와 소수자에 대한 차별과 혐오를 단호히 금지하는 제도적 안전장치를 확립해야 할 책무를 21대 국회는 더 이상 외면해서는 안 된다”면서 이낙연 더불어민주당 대표에 차별금지법 제정을 논의하자고 제안했다. 윤창수 기자 geo@seoul.co.kr
  • 인공지능윤리협회 “이루다, AI 윤리 어겨”…서비스 중단 촉구

    인공지능윤리협회 “이루다, AI 윤리 어겨”…서비스 중단 촉구

    학계 첫 성명…“데이터 정제 안됐다”개인정보 무단 수집 및 노출도 지적“서비스 중단하고 개선 뒤 재출시해야” 인공지능(AI) 챗봇 ‘이루다’가 동성애·장애인 혐오와 성차별을 학습했다는 논란에 관련 학계가 AI 윤리를 위반했다며 “이루다 서비스를 중단하라”는 첫 성명을 냈다. 한국인공지능윤리협회는 11일 성명서를 재고 “AI 챗봇으로 인해 AI의 편향성, 개인정보 유출, 악용 등 AI 윤리 문제가 논란이 됐다”며 “AI 서비스를 만드는 기업들과 이용자들이 AI 윤리 필요성과 중요성을 아직 인식하지 못하는 상황”이라고 짚었다. 협회는 “AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다”며 “이번 (이루다) 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다”고 지적했다. 이어 “AI 제품과 서비스는 출시 전 충분한 품질 검사를 거치고, 중립적인 기관의 검수도 거쳐야 한다”며 “AI는 기계학습 과정에서 인간이 예측하기 어려운 결과물을 내놓기 때문”이라고 설명했다. 또 이루다를 학습시키는 과정에서 활용된 실제 연인들 간 대화 데이터를 이용자의 구체적 동의 없이 수집하고, 이를 제대로 익명 처리하지 않아 개인정보를 노출했다는 논란에 대해서도 비판 의견을 내놨다.협회는 “카카오톡 대화를 챗봇 학습 데이터로 활용한다는 명확한 고지가 없었다”며 “카톡 대화의 상대방들은 개인정보 제공에 동의하지 않았기 때문에 문제 소지가 있다”고 의견을 냈다. 협회는 이루다 서비스를 중단해야 한다면서 “AI 윤리 가이드라인을 적용해 개선한 다음 재출시해야 한다”고 촉구했다. 협회는 “소비자도 AI 서비스를 올바른 방법으로 사용해야 한다”며 “성적 도구화, 성희롱 등의 문제는 법적 문제는 없어도 윤리적 문제가 분명히 있다”고 비판했다. AI 챗봇이든 무엇이든 성적 도구화 및 학대는 그 행위 자체로 잘못된 것이기 때문에, 이를 죄의식 없이 하게 되면 인간성 상실로 이어져 실제 인간에게도 비슷한 행위를 할 가능성이 커진다는 게 AI윤리협회의 지적이다.협회는 “초·중·고 청소년 시기부터 AI 개발 및 사용 윤리를 가르치고, 새로운 AI 윤리 이슈를 모든 시민에게 교육해야 한다”며 “AI는 인간의 편익과 행복을 위한 기술이지만, 잘못 개발·사용되면 위험성과 역작용이 막대할 것”이라고 덧붙였다. 국내 스타트업 스캐터랩이 지난해 12월 23일 페이스북 메신저 기반으로 출시한 AI 챗봇 ‘이루다’는 실제 사람과 자연스럽게 대화하는 느낌을 준다는 평가를 받으며 10~20대 사이에서 인기를 얻었다. 이용자가 40만명을 넘어가는 등 주목을 받던 중 일부 이용자들이 이루다를 대상으로 성희롱을 일삼는 등 성적 도구화한다는 비판이 제기됐고 동성애나 장애인, 여성 등을 차별하는 듯한 응답을 내놓는 등 연이어 논란에 휩싸이고 있다. 논란이 계속되자 스캐터랩은 이날 중으로 입장을 밝힐 예정인 것으로 전해졌다. 신진호 기자 sayho@seoul.co.kr
  • ‘꿈의 직장’ 구글도 노조는 현실이었다

    ‘꿈의 직장’ 구글도 노조는 현실이었다

    성희롱·내부 고발 직원 해고 등 잇단 논란“더이상 우리가 일하고 싶은 회사 아니다”실리콘밸리 反노조·개인주의 변화 촉각26만명 중 400명 참여… “역할 의문” 지적최근 몇 년간 직원 부당해고 등으로 비난받은 글로벌 빅테크 기업 구글에서 직원들이 노조를 결성했다. 개인주의와 능력주의를 신봉해 노조 결성을 부정적으로 여긴 미국 실리콘밸리 IT 기업에서 이런 움직임이 드러난 건 처음이다. 구글 노조가 실리콘밸리 전반의 문화에도 영향을 미칠지 주목된다. 뉴욕타임스(NYT) 등에 따르면 구글의 모회사 알파벳 직원들은 4일(현지시간) ‘알파벳 노동조합’(AWU)을 결성했다. NYT는 “오랫동안 강고하게 ‘안티 노조’를 유지한 실리콘밸리에서 이례적인 일”이라며 “앞으로 직원들이 급여와 직장 내 괴롭힘 문제를 공론화하고, 임원들과의 긴장을 고조시킬 것”이라고 봤다. 처음 노조 설립 때 참여 조합원 수는 225명으로 알려졌으나, 이날 저녁 400명 이상으로 늘어난 것으로 알려졌다. 구글에선 2018년 무렵부터 노동자와 사측의 갈등이 불거졌다. 구글이 성추행을 저지른 임원을 보호하는 등 적절히 대처하지 않았다는 문제 제기가 나와 약 2만명이 길거리에서 파업 시위를 벌였다. 단체교섭조차 없는 회사에서 이처럼 많은 인원이 단체 파업을 선언한 건 흔치 않은 일이었다. 2019년에는 미 국방부에 필요한 인공지능(AI) 기술 개발이 비도덕적이라며 반대 성명을 낸 직원들이 해고되며 논란이 됐다. 전미노동위원회(NLRB)의 조사에 따르면 구글은 회사 정책에 항의하고 노조를 만들려다 해고된 노동자를 불법으로 감시하고 심문했다. 지난해 AI윤리팀 공동리더 팀닛 게브루가 해고 과정에서 부당함을 겪었다는 사실이 드러나며 반발은 커졌다. 게브루가 “구글이 활용하는 AI 기술이 성적·인종적으로 편향됐다”는 내용의 논문을 썼는데, 한 상사가 이 논문을 철회하거나 저자 목록에서 이름을 빼라고 요구했다는 것이다. 노조위원장을 맡은 파룰 카울은 NYT에 “우리가 구글을 만들었지만 이건 일하고 싶은 회사가 아니다”라는 글을 기고하고, “2004년 구글 상장 당시 모토는 ‘악이 되자 말자’(Don’t be evil)였다. 우리는 그때의 모토대로 살겠다”고 밝혔다. 노조는 조합원 급여의 1%를 회비로 거둬 각종 행사나 파업 시 임금 및 법적 지원에 활용하겠다고 했다. NLRB로부터 비준을 받지 않아 임금이나 근무 여건 관련 단체교섭에는 나서지 않는다. 캘리포니아대 헤이스팅스법대의 비나 두발 교수는 “노조의 영향력은 구글에만 머무르지 않는다”며 “다른 테크기업 노동자에게도 노조가 ‘가능한 일’임을 깨닫게 할 것”이라고 평했다. 반면 ‘다윗과 골리앗의 싸움’이라 보는 시각도 있다. 코넬대 루이스 하이만 교수는 “노조는 작지만 큰 변화를 보여 주는 시그널”이라면서도 “전체 직원 26만명 중 225명만 합류했다“며 노조 역할에 의문이 든다고 지적했다. 김정화 기자 clean@seoul.co.kr
  • “일하고 싶은 회사 아니야” ‘신의 직장’ 구글도 노조 만들었다

    “일하고 싶은 회사 아니야” ‘신의 직장’ 구글도 노조 만들었다

    성희롱 부적절 대처, 부당해고 논란“우리는 악이 되지 않겠다” 선언실리콘밸리 성과주의 문화 영향 주목최근 몇 년간 직원 부당해고 등으로 비난받은 글로벌 빅테크 기업 구글에서 직원들이 노조를 결성했다. 개인주의와 능력주의를 신봉해 노조 결성을 부정적으로 여긴 미국 실리콘밸리 IT 기업에서 이런 움직임이 드러난 건 처음이다. 구글 노조가 실리콘밸리 전반의 문화에도 영향을 미칠지 주목된다. 뉴욕타임스(NYT) 등에 따르면 구글의 모회사 알파벳 직원들은 4일(현지시간) ‘알파벳 노동조합’(AWU)을 결성했다. NYT는 “오랫동안 강고하게 ‘안티 노조’를 유지한 실리콘밸리에서 이례적인 일”이라며 “앞으로 직원들이 급여와 직장 내 괴롭힘 문제를 공론화하고, 임원들과의 긴장을 고조시킬 것”이라고 봤다. 처음 노조 설립 때 참여 조합원 수는 225명으로 알려졌으나, 이날 저녁 400명 이상으로 늘어난 것으로 알려졌다. 구글에선 2018년 무렵부터 노동자와 사측의 갈등이 불거졌다. 구글이 성추행을 저지른 임원을 보호하는 등 적절히 대처하지 않았다는 문제 제기가 나와 약 2만명이 길거리에서 파업 시위를 벌였다. 단체교섭조차 없는 회사에서 이처럼 많은 인원이 단체 파업을 선언한 건 흔치 않은 일이었다. 2019년에는 미 국방부에 필요한 인공지능(AI) 기술 개발이 비도덕적이라며 반대 성명을 낸 직원들이 해고되며 논란이 됐다. 전미노동위원회(NLRB)의 조사에 따르면 구글은 회사 정책에 항의하고 노조를 만들려다 해고된 노동자를 불법으로 감시하고 심문했다.지난해 AI윤리팀 공동리더 팀닛 게브루가 해고 과정에서 부당함을 겪었다는 사실이 드러나며 반발은 커졌다. 게브루가 “구글이 활용하는 AI 기술이 성적·인종적으로 편향됐다”는 내용의 논문을 썼는데, 한 상사가 이 논문을 철회하거나 저자 목록에서 이름을 빼라고 요구했다는 것이다. 노조위원장을 맡은 파룰 카울은 NYT에 “우리가 구글을 만들었지만 이건 일하고 싶은 회사가 아니다”라는 글을 기고하고, “2004년 구글 상장 당시 모토는 ‘악이 되자 말자’(Don’t be evil)였다. 우리는 그때의 모토대로 살겠다”고 밝혔다. 노조는 조합원 급여의 1%를 회비로 거둬 각종 행사나 파업 시 임금 및 법적 지원에 활용하겠다고 했다. NLRB로부터 비준을 받지 않아 임금이나 근무 여건 관련 단체교섭에는 나서지 않는다. 캘리포니아대 헤이스팅스법대의 비나 두발 교수는 “노조의 영향력은 구글에만 머무르지 않는다”며 “다른 테크기업 노동자에게도 노조가 ‘가능한 일’임을 깨닫게 할 것”이라고 평했다. 반면 ‘다윗과 골리앗의 싸움’이라 보는 시각도 있다. 코넬대 루이스 하이만 교수는 “노조는 작지만 큰 변화를 보여 주는 시그널”이라면서도 “전체 직원 26만명 중 225명만 합류했다“며 노조 역할에 의문이 든다고 지적했다. 김정화 기자 clean@seoul.co.kr
  • 이메일 해고·성차별 임금… 여성 밀어내는 실리콘밸리 ‘민낯’

    이메일 해고·성차별 임금… 여성 밀어내는 실리콘밸리 ‘민낯’

    #1. “구글 검색 인공지능(AI) 기술의 편향성에 관한 논문을 발표하려다 해고당했다. 논문을 철회하거나 공저자 중 구글 직원 이름을 빼라는 요구에 불응하자 이메일로 해고를 통보해 왔다.” 지난 3일 구글 AI윤리팀 공동리더 팀닛 게브루의 트위터 폭로다. 흑인 여성인 게브루는 스탠퍼드대 박사로 ‘AI가 유색인종보다 백인 남성을 특히 잘 식별한다’는 논문으로 주목받은 인물. 지난해 구글에 입사해 신설된 AI윤리팀 공동 리더를 맡아 왔다. ●게브루 “구글 CEO 알맹이 없는 사과” 일축 폭로 뒤 구글 직원들은 “연구 자유를 보장하지 않은 부당한 행위”라며 게브루 편에 섰다. 트위터에선 #ISrpportTimnit(나는 팀닛을 지지한다)을 게시하는 게브루 지지 해시태그 운동이 전개됐다. 결국 순다르 피차이 구글 최고경영자(CEO)는 지난 9일 “(해고는) 고통스러운 사건이지만 (구글에) 아직 진보해 나가야 할 부분이 많다고 상기시켜 주는 중요한 사건”이라며 유감을 표했다. 게브루는 “알맹이 없는 사과”라고 일축하며 “나를 마치 ‘화난 흑인 여성’으로 바라보지 말라”고 받아쳤다. 게브루의 연구 자유를 지지하는 흐름은 멈추지 않았다. 해고 통보 뒤 2주가 지난 17일 구글 직원들은 게브루에 대한 공식 사과 및 그의 복직을 요구하는 서한을 경영진에게 전달했다. 그보다 앞서 구글 직원 2700명과 학계 4300명이 게브루 지지 서명을 했다. 비슷한 시기 실리콘밸리의 또 다른 기업 핀터레스트에서는 늦봄에 시작됐던 갈등이 끝을 향해 가고 있었다. #2. 지난 4월 회사 내 성차별 문제를 제기한 뒤 화상통화로 해고 통보를 받았던 프랑소와 브로어 전 핀터레스트 최고운영책임자(COO). 이미지 공유 앱을 운영하는 핀터레스트를 직장 내 성차별 혐의로 고소했던 브로어는 지난 16일 2250만 달러(약 247억원)에 핀터레스트와 소송 취하에 합의했다. 핀터레스트는 브로어에게 지급하는 금액 중 250만 달러(약 27억원)를 정보기술(IT) 업계 성차별 문제 개선에 공동 기부하기로 했다. 미 하버드 비즈니스 스쿨 출신인 브로어는 2005년 구글에 입사해 글로벌 영업 및 운영 담당 부사장까지 올랐다. 이후 위치 기반 모바일 결제회사 스퀘어로 이직했다가 2018년 3월 핀터레스트 COO가 됐다. 브로어는 소를 제기할 때 쓴 블로그에서 “중요한 회의에서 지속적으로 배제됐고, 입사 당시 남자 동료들보다 적은 급여와 주식을 받았다”면서 “사내에 만연한 여성 차별, 적대적인 근무환경, 여성 혐오 문화에 대해 공공연하게 이야기한 것 때문에 해고된 것 같다”고 주장했다. 게브루는 2주, 브로어는 약 8개월 동안 회사의 문제점을 지적했던 직원들이 지난 몇십 년 동안 겪은 경로대로 움직였다. 회사의 잘못된 문화에 대한 공개 지적→ 일방적인 해고 통보→ 사측 부당행위에 대한 공개 및 저항→ 회사의 사과 또는 보상. ●AI 인종·성 편견 사후에 걸러내는 건 불가능 그래도 게브루와 브로어는 각각 회사의 응답을 받았다. 비록 여성, 특히 게브루는 흑인 여성으로 실리콘밸리의 소수그룹에 속하지만 둘은 명문대를 나온 ‘엄친딸’이고, 책임자급 지위에 있었고, 소속 회사를 넘어 실리콘밸리에 광범위한 인맥을 구축해 두었기에 가능했을지도 모른다. 그렇다고 공개적으로 문제를 제기했던 2명의 여성에게만 초점을 맞춰 ‘메신저들의 승리’로 결론 짓기엔 찜찜한 부분이 있다. 애초에 이들이 제기했던 ‘메시지’의 민감함 때문이다. 평소 직원들의 연구를 장려하는 구글은 왜 유독 게브루팀의 논문에 대해서만 제재를 가했을까. 논문을 입수해 분석한 MIT 테크놀로지 리뷰는 최근 급속도로 성장하는 AI에 관한 잠재적 위험이 논문에 총망라돼 있다고 평가했다. 논문은 AI 학습을 위해 인터넷의 모든 데이터를 수집하려는 관행 속에서 인종차별, 성차별, 학대적인 언어가 AI 훈련 데이터에 무분별하게 포함될 수 있는 반면 AI는 인간의 집단적 각성에 대해선 전혀 이해하지 못한다고 지적했다. 예를 들어 인종차별 관행을 반성하고 정반대 생각으로 각성해 ‘블랙 라이브스 매터’(흑인의 목숨도 중요하다) 운동에 나서는 인류를 AI는 이해할 수 없다는 것이다. 그러면서도 AI는 인간의 언어를 완벽에 가깝게 흉내낼 수 있기 때문에 편향된 입력 데이터에 기대 가짜뉴스를 만들거나 오역을 할 수도 있다. AI의 편견을 사후에 걸러내면 된다는 반론에 대해 논문은 너무 많은 데이터를 수집하기 때문에 AI 사후 교정은 사실상 불가능하다고 결론 냈다. ●사용자 70% 여성 ‘핀터…’ 女 경영진은 소외 게브루는 결론적으로 AI를 학습시키는 데이터를 저인망식으로 수집하는 지금의 행태에서 벗어나 더 세심하게 구조화해 수집해야 한다고 논문을 통해 구글을 직격했다. 구글의 사업 전략과 정반대 주장을 제시한 데다 ‘편향된 AI’에 관한 구글과 과학자들의 미필적 고의를 꼬집은 셈이다. “핀터레스트에서 여성 경영진은 소외되고 배제되고 침묵해야 한다”던 브로어의 폭로 역시 사용자의 70%가 여성인 핀터레스트에 매우 위협적인 진실이었다. 핀터레스트 측은 브로어의 개인적인 태도 문제에서 해임 사유를 찾으려고 했지만, 일단 브로어가 시작하자 추가 폭로가 이어졌다. 정책팀 소속이던 2명의 흑인 여성은 핀터레스트에서 저임금을 받았고, 상사가 자신을 ‘하인’이라고 부르는 폭언을 들었으며, 관련 불만을 제기한 뒤 보복당했다고 트위터에 썼다. 조사가 진행될수록 핀터레스트는 궁지에 몰렸다. 하필 올해는 빅테크 기업이 정치권으로부터 혹독하게 공격받은 시기였다. 미 의회는 빅테크 기업들을 청문회장에 세워서 무분별한 정보 수집 관행과 생태계 독점 문제를 추궁했다. 이런 와중에 내부에서 사업전략과 조직문화를 직격했으니 구글과 핀터레스트가 탐탐지 않아 할 만한 사정이 있었다. 그러나 한편으로 두 여성 리더들의 문제 제기는 실리콘밸리에선 이색적이지만, 전통 기업의 영역에선 아주 낯설지 않은 풍경이었다. 인적관리(HR) 회계 창립자인 에릭 플램홀츠 UCLA 교수는 창업 단계의 기업은 수요에 민감하고 내부 인력의 다양성을 존중하지만, 시장지배력을 강화하며 급팽창한 다음부터는 창설 멤버와 직원들이 양분되거나 회사보다 부서에 충성하는 식의 배타적인 분위기가 형성된다고 설명했다. 정치권이 빠르게 성장한 빅테크 기업의 막강한 시장 지배력에 우려를 표시하며 마치 과거 에너지 재벌을 대하던 태도로 IT 기업을 다룬 것처럼 게브루와 브로어가 실리콘밸리 기업과는 어울리지 않는 구태스러운 조직문화를 폭로했던 것이다. ‘(실리콘밸리에선) 당당하고 열정적으로 나서는 여성이 동등한 기회를 거머쥔다’던 셰릴 샌드버그 페이스북 COO의 책 ‘린 인’이 나온 지 7년 만의 반전이다. ●“다양성 존중 않는 문화의 폐해” 폭로 중 게브루와 브로어는 내부자가 된 소수자가 문제 제기를 한 경우이지만, 사실 소수자의 빅테크 기업 입성 자체도 쉽지 않다. 2018년 여름부터 1년 동안 집계한 빅테크 기업 11곳의 여성 인력 비중은 32.0%로 실리콘밸리 전체 여성 직원 비중인 44.8%보다 낮았다. 실리콘밸리 재직자 중 흑인 비중은 2008년 3%에서 2018년 2%로 줄었다. 애초에 공학을 전공하는 여성과 흑인이 적어서일 수도 있다. 그러나 소수자로 내부자가 됐다가 배제된 두 여성은 “다양성을 존중하지 않는 문화”가 이미 빅테크 기업 안에 있음을 증언 중이다. 홍희경 기자 saloo@seoul.co.kr
  • [기고] AI에 ‘레이블’을 붙이자/박정호 선문대 SW융합대학장

    [기고] AI에 ‘레이블’을 붙이자/박정호 선문대 SW융합대학장

    그야말로 인공지능(AI)이 대세인 세상이다. ‘21세기 석유’라고도 불리는 AI는 어느새 우리 생활 깊숙이 파고들고 있다. 미국 법원에서는 피고인이 재판 중에 도망을 갈지 여부를 판단할 때, 그리고 유죄 판단을 받은 사람의 형량이나 가석방 여부를 결정하는 데도 AI를 이용하고 있다. 미국의 모 기업에서는 카메라를 이용해 잡초에만 정확하게 제초제를 분무하는 데 AI 기술을 이용하기도 한다. 반면 AI로 발생하는 부작용 사례도 점점 늘고 있다. 미국의 자산 관리용 AI가 계산을 잘못함으로 인해 뉴욕 증시가 폭락한 사례, 일본 취업정보 사이트에서 특정 학생이 특정 기업 취업을 포기하고 다른 회사로 옮겨갈 확률을 예측해 고객사에 유료로 제공한 사례 등이 있다. AI 역기능 문제 해결을 위해 우리가 무엇을 해야 할지를 고민해야 할 때이다. AI 역기능 문제 해결을 위해서는 법제도적 측면과 윤리적 측면에서의 접근이 필요하다. AI시대 준비를 위한 첫 번째 제안으로 법제도적 측면에서 AI에 레이블을 부착해서 사용할 것을 제안한다. 우리가 일상생활에서 사용하는 모든 상품에는 레이블 부착이 법으로 의무화돼 있다. 가령 ‘원산지 표시제’와 같은 레이블을 모든 수입상품에 부착해야 한다. AI의 개발자는 자신이 개발한 AI가 어떤 동작을 하는지 알 수 있겠지만, 일반인들은 전혀 알 수 없는 블랙박스에 지나지 않는다. 그리고 AI가 만든 아들 AI는 원래 AI를 만든 개발자조차 아들 AI가 어떻게 동작할지 전혀 예측할 수 없는 블랙박스이다. 일반 상품과 마찬가지로 투명성 확보로 소비자를 보호하기 위해 AI에 레이블을 사용할 것을 제안한다. AI 레이블에는 해당 AI가 어떤 동작을 하는지, 이용자가 해당 AI를 이용할 때 어떤 점을 조심해야 하는지 등이 포함돼야 한다. AI가 블랙박스가 아닌, 화이트박스여야 한다는 것이다. AI 레이블 부착이 법제화로 이어지게 되면 AI로 인해 발생 가능한 여러 역기능 문제를 예방할 수 있을 것이다. AI시대 준비를 위한 두 번째 제안으로, 윤리적 측면의 접근을 제안한다. 4차 산업혁명으로 야기된 역기능 문제 해결을 위해 AI윤리 교육이 필요하다. AI윤리란 인간과 AI가 가해자나 피해자가 되지 않기 위해 인간이 알아야 할 내용을 말한다. AI 역기능 문제를 소홀히 했을 때 발생할 수 있는 경제적·사회적 손실을 고려하면 전 국민을 대상으로 한 AI윤리 교육이 시급하다. 윤리적 측면에서의 접근을 통해 본격적으로 다가올 AI시대에 대비해야 할 것이다.
  • 정보통신정책연구원 “4차 산업혁명, 지능정보사회 규범 재정립 필요”

    4차 산업혁명이 기술, 산업, 사회 등 모든 영역에서 변화를 초래하기 때문에 관련 규범 체계의 재정립이 필요하다는 연구 보고서가 나왔다. 정보통신정책연구원(KISDI, 원장 김대희)은 27일 이런 내용의 ‘[4차 산업혁명 기획시리즈] 제4차 산업혁명과 지능정보사회 규범의 재정립’ 연구 보고서를 발표했다. 최근 제4차 산업혁명 관련 논의가 기술개발 및 산업진흥에 무게중심을 두고 있지만, 점차 신기술의 위험과 책임에 대한 규범적 대응 또한 중요해지고 있다. 정보통신정책연구원은 지능정보사회의 규범적 대응과 관련된 국내외 논의 및 관련 규범 사례들을 검토하고 향후 우리나라의 제4차 산업혁명과 지능정보사회의 규범체계를 정립하는 데 필요한 정책과제들을 제시했다. 보고서에 따르면 최근 선진국들의 제4차 산업혁명에 대한 규범적 대응방식을 볼 때 윤리, 법제도 등 규범적 방식이 다양하게 나타나지만 대체로 ‘로봇윤리’, ‘데이터윤리’, ‘AI윤리’ 등 새로운 기술에 대한 윤리적 연구와 사회적 논의가 규범 형성에 매우 중요한 기여를 했다. 그 과정에서 ‘윤리와 법제도 간의 탈경계화’라는 공통된 변화와 특징이 나타났다. 정보통신정책연구원 ICT전략연구실 이원태 연구위원은 제4차 산업혁명에 대응하기 위한 법제도 등 규범적 준비 수준이 미흡하다고 봤다. 이 연구위원은 향후 제4차 산업혁명과 지능정보사회 본격화에 대비한 규범체계를 정립하기 위한 정책과제들로 ‘지능정보사회(화) 기본법’ 추진, ICT특별법 등 개별법제 개정의 단계적 추진, 지능정보화에 따른 이용자 보호 정책 패러다임 전환, 제조물책임법·보험제도 등 새로운 책임법제 정립, 지능정보사회 윤리헌장 및 윤리가이드라인 제정 추진, 지능정보사회에 부합하는 규제체계로의 패러다임 전환, 새로운 국제규범의 모색 등을 제시했다. 이 연구위원은 먼저 인공지능 등 4차 산업혁명의 기술발전 및 그 사회적 영향이 여전히 불확실성에 놓여 있기 때문에 사전예방의 윤리적 원칙에 입각한 법제도적 프레임워크 구축의 일환으로 지능정보사회 기본법을 추진할 것을 제안했다. ICT관련 개별법들이 너무 많고 부처별로 산재해 있기 때문에 이들 법제의 지능정보화 가능성을 면밀히 검토하면서 단기 및 중장기별로 단계적으로 개선 및 정비하는 입법 정책을 준비해야 한다고 주장했다. 피해입증의 책임을 이용자에게만 부과하는 등 사후규제 중심에서 알고리즘 설계 및 개발단계에서 이용자보호 기준을 적용하는 등 이용자보호 정책 패러다임을 전환한 필요성을 제기했다. 국민들의 윤리적 규범 역량 강화를 위해서 국민들이 폭넓게 동의하고 참여할 수 있는 ‘지능정보사회 윤리 헌장 및 윤리 가이드라인’을 새로운 사회규범으로 정립할 것도 제안했다. 네거티브 규제원칙 등 지능정보사회에 부합하는 규제 패러다임 전환을 모색해야 한다면서, 예컨대 법제도 미비에 따른 지능정보기술의 사업화 지연을 방지하기 위해 ICT특별법 개정 등 규제체계 개선을 위한 노력을 강조했다. 끝으로 최근 일본 정부가 인공지능 윤리와 관련된 글로벌 규범 리더십을 선점하기 위해 나서는 것처럼 인공지능 윤리 및 거버넌스를 둘러싼 새로운 국제규범 형성과정에 우리 민간기업 및 정부도 주도적으로 참여할 수 있도록 노력해야 한다고 주장했다. 온라인뉴스부 iseoul@seoul.co.kr
연관검색어
위로