대기업 첫 오픈 모델로 전환
“AI 생태계에 긍정적 영향 줄 것”기존 모델보다 성능·경제성 개선
AI 비서 ‘챗엑사원’ 베타 서비스

LG AI연구원은 7일 AI 모델 ‘엑사원 3.0’의 성능 평가 결과 등을 담은 기술 보고서를 발표하면서 경량화 모델(매개변수 78억개)을 오픈소스로 공개한다고 밝혔다. 오픈소스는 소스 코드가 외부에 공개돼 누구나 자유롭게 서비스 개발에 활용할 수 있다. 폐쇄형 모델을 고수하는 오픈AI에 대항하기 위해 여러 기업이 개방형 전략을 택하고 있지만 국내 대기업이 내부적으로 사용하던 AI 모델을 전격 공개한 건 처음이다. 배경훈 LG AI연구원장은 “엑사원을 오픈 모델로 전환하는 것에 대해 기술적 이점과 사업적 이점을 포기하는 것 아니냐는 우려도 있었다”면서 “그러나 지금 모델을 공개하는 것이 AI 생태계에 긍정적 영향을 줄 수 있다고 판단했다”고 말했다.
엑사원 ‘3.0’이란 숫자에서 보듯 이번 모델은 연구원이 발표한 세 번째 버전이다. 2021년 12월 엑사원 1.0을 공개한 지 3년도 안 돼 베일을 벗은 이 모델은 전작(엑사원 2.0) 대비 추론 처리 시간이 56%, 메모리 사용량이 35% 줄었다. 구동 비용도 72% 줄여 성능과 경제성 모두 개선됐다는 게 LG 측 설명이다.
활용 용도에 따라 초경량 모델(온디바이스 AI용), 경량 모델(범용), 고성능 모델(특화 분야 활용) 등 모델 크기를 달리한 것도 특징이다. 이 중 오픈소스로 공개한 건 가장 활용도가 높은 경량 모델이다.
이날 공개한 기술 보고서를 보면 엑사원 3.0과 주요 오픈소스 AI 모델의 성능 평가 결과가 나온다. 엑사원 3.0은 한국어와 영어를 학습하고 이해할 수 있는 이중언어 모델로 한국어 성능에서는 외국 AI 모델에 비해 단연 높은 점수를 받았다. AI 모델의 대화 성능 등 실제 사용성(영어 기준)에서도 엑사원 3.0은 구글의 ‘젬마2’, 마이크로소프트의 ‘파이3’를 앞질렀다. 수학, 코딩 분야에서도 메타의 ‘라마 3.1’, 젬마2보다 우수한 성능을 보였고, 추론 영역에서는 젬마2, 파이3 다음으로 높은 평가를 받았다.
연구원은 전문 분야 학습 데이터 양을 현재 6000만건 이상에서 1억건 이상으로 늘려 성능을 더 끌어올린다는 계획이다. 이날부터 LG 임직원을 대상으로 엑사원 3.0을 기반으로 만든 AI 비서 ‘챗엑사원’ 베타 서비스도 시작됐다.
LG의 오픈소스 실험이 확대될지도 관심사다. 지난해 한국어에 특화된 생성형 AI ‘하이퍼클로바X’를 내놓은 네이버는 올해 안에 인텔과 협력을 통해 오픈소스 결과물을 내놓기로 했다. 삼성전자는 지난해 말 ‘삼성 가우스’를 공개한 뒤 사내 업무용으로 활용하고 있다. 이 모델은 언어 모델(텍스트 생성), 코드 모델(코드 생성), 이미지 모델(이미지 생성)로 구성돼 있다. 내부용이라 스펙은 공개하지 않았다.
2024-08-08 14면
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지