Loading...

LG, 독자 기술 집약 'K-엑사원' 공개…글로벌 'AI 3강' 주도

LG, 독자 기술 집약 'K-엑사원' 공개…글로벌 'AI 3강' 주도
▲ 서울 여의도 LG그룹 사옥

LG AI연구원이 독자 AI 파운데이션 모델을 집약해 개발한 'K-엑사원'을 공개했습니다.

미국과 중국이 점령한 글로벌 AI 상위 10위권에서 7위를 기록, 유일하게 이름을 올리며 'AI 3강' 한국의 자존심을 지켰습니다.

LG AI연구원은 'K-엑사원'이 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가 기준인 13개의 벤치마크 테스트에서 전체 평균 점수 72점을 기록해 5개 정예팀 중 1위를 차지했다고 오늘(11일) 밝혔습니다.

K-엑사원은 13개 테스트 중 10개에서 1위를 차지했습니다.

K-엑사원은 글로벌 AI 성능 평가 기관인 '아티피셜 어낼리시스'의 인텔리전스 지수 평가에서 32점을 얻으며 세계 7위에 올랐습니다.

오픈 웨이트 모델 상위 10개 중 중국이 6개, 미국이 3개인 상황에서 'K-엑사원'이 유일하게 이름을 올렸습니다.

글로벌 AI 3강을 목표로 하는 한국의 AI 경쟁력을 입증했다는 평갑니다.

K-엑사원은 공개 직후 글로벌 오픈소스 AI 플랫폼인 '허깅 페이스'(Hugging Face)의 글로벌 모델 트렌드 순위 2위에 올랐습니다.

또한 미국 비영리 AI 연구 기관 '에포크(Epoch) AI'의 '주목할 만한 AI 모델'에 포함됐습니다.

이로써 LG AI연구원은 2024년 '엑사원 3.5'를 시작으로 '엑사원 딥', '엑사원 패스 2.0', '엑사원 '4.0', K-엑사원 등 국내 기업 중 가장 많은 5개 모델을 리스트에 올렸습니다.

LG AI연구원은 '고효율 저비용' 설계를 통해 K-엑사원이 고가의 인프라가 아닌 엔비디아 A100급의 그래픽처리장치(GPU) 환경에서도 구동될 수 있도록 했습니다.

또한 '하이브리드 어텐션'을 고도화해 메모리 요구량과 연산량을 엑사원 4.0 대비 70% 절감했습니다.

K-엑사원의 학습 어휘는 15만 개로, AI가 이해하는 단위인 토큰으로 문장을 쪼개는 기술인 '토크나이저' 고도화를 통해 기존 모델 대비 1.3배 더 긴 문서를 기억하고 처리할 수 있다.

추론 속도는 기존 모델 대비 150% 향상됐습니다.

또, 국내 AI 모델 중 가장 긴 26만 토큰의 긴 문맥을 한 번에 이해하고 처리할 수 있습니다.

A4 문서 기준으로 400장 이상에 해당하는 분량입니다.

LG AI연구원은 자체 AI윤리위원회를 통해 K-엑사원의 안전성과 신뢰성을 검증했습니다.

저작권 문제가 있는 데이터는 사전에 식별하고 제외하는 등 모든 학습 데이터에 대한 데이터 컴플라이언스 평가를 진행하고 있습니다.

K-엑사원은 LG AI연구원이 한국의 특수성을 평가하기 위해 개발한 'KGC-SAFETY' 지표에서 4개 부문 평균 97.83점을 받았습니다.

미국 오픈AI의 GPT-OSS 120B 모델(92.48점)과 중국 알리바바의 큐웬(Qwen)3 235B 모델(66.15점) 등보다 높습니다.

최정규 LG AI연구원 에이전틱 AI 그룹장은 "K-엑사원은 자원의 한계 속에서 독자적인 기술 설계로 글로벌 거대 모델들과 대등하게 경쟁할 수 있음을 보여준 사례"라며 "대한민국 대표 AI를 개발한다는 자신감으로 연구 개발에 집중해 전 세계 AI 생태계 발전에 기여하는 모델을 만들어 가겠다"고 말했습니다.

(사진=연합뉴스)
Copyright Ⓒ SBS. All rights reserved.
무단 전재, 재배포 및 AI학습 이용 금지

댓글

방금 달린 댓글
댓글 작성
첫 번째 댓글을 남겨주세요.
0 / 300
  • 최신순
  • 공감순
  • 비공감순
매너봇 이미지
매너봇이 작동 중입니다.

댓글 ∙ 답글 수 0
  • 최신순
  • 공감순
  • 비공감순
매너봇 이미지
매너봇이 작동 중입니다.
>