LG의 AI 싱크탱크인 LG AI연구원은 미국 미시간대, 서울대, 캐나다 토론토대 등과 공동 연구를 활발히 진행 중이다. 사진은 LG AI연구원.
LG 제공
LG 제공
20일 LG에 따르면 LG AI연구원은 지난 7월 19일 마곡LG사이언스파크에서 ‘LG AI 토크 콘서트 2023’을 열고 초거대 멀티모달 AI ‘엑사원(EXAONE) 2.0’을 공개했다.
이날 공개된 엑사원 2.0은 파트너십을 통해 약 4500만건의 전문 문헌과 3억 5000만장의 이미지를 학습했다.
엑사원 2.0은 한국어와 영어를 동시에 이해하고 답변할 수 있는 이중 언어(Bilingual) 모델로 개발됐다. 학습 데이터양도 기존 모델 대비 4배 이상 늘었다. 특히 엑사원 2.0의 언어 모델은 기존 모델과 동일한 성능을 유지하면서도 추론 처리 시간은 25% 단축하고 메모리 사용량은 70% 줄여 비용을 약 78% 절감했다.
언어와 이미지 간의 양방향 생성이 가능한 ‘엑사원 2.0’의 멀티모달 모델은 이미지 생성 품질을 높이기 위해 기존 모델보다 메모리 사용량을 두 배 늘렸지만 추론 처리 시간은 83% 단축해 비용의 약 66%를 절감했다.
이날 LG AI연구원은 엑사원 3대 플랫폼인 ‘엑사원 유니버스’(언어), ‘엑사원 디스커버리’(난제), ‘엑사원 아틀리에’(창작)도 차례로 공개했다.
먼저 엑사원 유니버스는 전문가용 대화형 AI 플랫폼이다. 다른 대화형 AI들과는 달리 사전 학습한 데이터는 물론 도메인별 최신 전문 데이터까지 포함해 근거를 찾아내며 추론한 답변을 생성한다.
엑사원 디스커버리는 ‘인류가 쌓아 온 지식을 초거대 AI가 스스로 학습해 활용할 수 있다면 질병, 에너지와 같은 세상의 난제를 해결하는 데 도움이 될 수 있을 것’이라는 아이디어를 구체화한 플랫폼이다. 엑사원이 논문특허 등 전문 문헌의 텍스트뿐만 아니라 수식과 표, 이미지까지 스스로 학습해 데이터베이스화하는 기술을 적용했다.
엑사원 아틀리에는 텍스트와 이미지 간 양방향 생성이 가능한 엑사원만의 멀티모달 특성을 살려 사람과 AI가 협업해 세상에 없던 창조적 디자인을 생성하는 플랫폼이다. 처음 보는 이미지를 자연어로 설명할 수 있는 ‘캡셔닝 AI’ 기능이 탑재돼 이미지 검색에 활용할 수 있는 정보인 문장이나 키워드 등의 메타 데이터를 생성한다.
2023-12-21 16면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지