오픈AI ‘챗GPT CEO’ 해임 논란
“AI 수익화·산업 혁신 이끌어가야”
“발전 너무 빨라 통제 안 하면 위험”
기술개발 속도전에 내부 갈등 폭발
비영리 조직서 출발해 정체성 혼란
사업보다 연구… 실험적 행위 우려
LG전자는 AI 위험성 주기적 점검
이성엽(한국데이터법정책학회장) 고려대 기술경영전문대학원 교수는 20일 올트먼의 해임 사건과 관련해 “AI로 인한 비즈니스 모델을 만들어 수익화하고, 산업 혁신을 끌고 가야 한다는 주장과 AI 발전 속도가 예상보다 빨라서 통제가능하도록 규제하지 않으면 인류 전체에 위험이 생길 수 있다는 논리가 부딪친 게 아닌가 추정된다”면서 “이는 AI 기술이 가진 특수성 때문에 벌어진 일”이라고 진단했다.
일종의 ‘게임체인저’인 AI의 변화 양상이나 속도가 광범위하고 기존의 기술과 달리 인간을 대체할 정도의 상당한 파급력이 있다 보니 CEO 본연의 역할인 주주이익·기업가치 극대화만을 추구하는 게 과연 맞는 것이냐는 질문을 던졌다는 것이다. 이 사건은 글로벌 화두로 떠오른 환경·사회·지배구조(ESG) 경영처럼 당장 성과가 나지 않더라도 인간의 존엄성 등 비재무적 요소도 함께 고려해야 기업이 ‘신뢰’를 얻을 수 있다는 시사점을 던졌다고 덧붙였다.
외신들도 올트먼이 자사 기술의 위험성에 대해 충분한 주의를 기울이지 않아 오픈AI 내부에서도 점점 더 우려하는 목소리가 있었다고 보도했다. 특히 오픈AI 공동 창립자인 일리야 서츠케버 수석과학자를 주축으로 한 이사진과 올트먼이 AI 안전성, 기술 개발 속도 등을 놓고 의견 충돌이 있었던 것으로 알려졌다. 서츠케버는 “AI를 통제할 수 있다고 여길 때까지 AI를 확장하지 말아야 한다”는 제프리 힌턴 토론토대 교수의 제자로 지난 7월 회사 내에 AI 위험성 통제를 위한 내부 팀도 새로 만들었다고 한다.
AI 스타트업 업스테이지의 김근교 이사는 “안전성을 중요하게 생각하는 쪽과 사업적으로 속도를 내야 한다는 쪽의 갈등이 표면화된 게 아니냐는 외신 보도가 있지만 정작 이 사태로 어떤 변화가 일어날지 아무것도 결정되지 않았다”면서 “어떻게 결론이 나느냐가 중요한 만큼 계속 지켜보는 수밖에 없다”고 말했다.
이 사태를 예의주시하는 정보기술(IT) 업계에선 비영리 조직으로 설립된 오픈AI가 영리 기업으로 전환하고 챗GPT로 성공을 거두고 몸집을 키우면서 정체성에 혼란을 일으켰다고 보는 시각도 있다. 구글처럼 처음부터 수많은 이용자를 대상으로 한 AI 서비스를 내놓기 위해 개발에 나섰다면 AI의 위험성을 고려해 속도 조절을 할 수밖에 없지만 오픈AI는 ‘사업’보다는 ‘연구’에 방점이 찍혀 있는 조직이다 보니 실험적인 행위를 할 수 있었다는 지적이다. 오픈AI는 애초 인간의 명령이나 도움 없이 스스로 사고하고 학습하는 범용AI(AGI)가 인류 전체에 혜택을 줄 수 있도록 노력하는 비영리 조직으로 출발했다.
AI 서비스를 하고 있는 네이버의 경우 비윤리적인 답변이나 저작권 침해를 막기 위해 개발 과정에 ‘레드팀’과 같은 절차를 두고 있고, AI 윤리 관련 연구 논문을 전 세계 기업과 연구기관에 공개해 AI 윤리 생태계를 조성하고 있다. 지난해 AI 윤리 원칙을 발표한 LG전자는 주기적으로 협의체를 운영하면서 AI 위험성에 대한 점검을 하고 있다.
업계 관계자는 “현 상황은 오픈AI에 새로운 도전”이라면서 “오픈AI가 AI의 안전성에 대해 고려하는 계기가 될 수 있을 것으로 본다”고 내다봤다.
2023-11-21 2면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지