▲ 구글
인공지능(AI)의 메모리 사용량을 줄여주는 구글의 신기술 개발에 반도체 업계가 촉각을 기울이고 있습니다.
일각에서는 메모리 수요가 감소할 수 있다고 우려하지만, 전문가들은 현재의 메모리 수요 구조를 당장 바꾸는 것을 불가능하며 중장기적으로 AI 인프라 혁신을 촉진할 수 있는 기폭제가 될 수 있다고 보고 있습니다.
27일 업계에 따르면, 구글리서치가 지난 25일(현지시간) 논문을 통해 발표한 '터보퀀트'는 AI 추론 과정에서 발생하는 키-값 캐시(KV 캐시)를 효율적으로 압축시켜 정확도 저하 없이 AI의 메모리 사용량을 6분의 1로 줄인 기술입니다.
KV 캐시는 AI가 대화의 맥락을 기억하고 새로운 정보를 찾아낼 때 필요한 임시 기억장치입니다.
AI의 기능이 학습에서 추론으로 진화하면서 필요한 KV 캐시가 늘어났고, 이에 쓰이는 메모리 용량도 급증했습니다.
이에 구글은 KV 캐시 데이터를 6분의 1로 줄여, 일종의 '요약본'으로 압축해 메모리 병목현상을 해결하는 기술을 내놓았습니다.
현재 진행형인 메모리 공급 부족을 해결할 수 있는 기술이란 이유로 터보퀀트 발표 후 주요 메모리 기업 주가는 폭락했습니다.
지난 26일 삼성전자 주가는 4.7% 하락했고, SK하이닉스는 6.2% 급락 마감했습니다.
미국의 마이크론 주가도 전날 3% 넘게 떨어졌습니다.
그러나 업계에서는 터보퀀트를 같은 메모리로 더 많은 연산과 트래픽을 처리할 수 있도록 효율을 높여주는 기술로 봐야 한다는 목소리가 나옵니다.
반도체 업계 관계자는 "단기적으로는 서버 한 대당 메모리 탑재량 부담을 줄일 수 있겠지만, 중장기적으로는 AI 서비스 확산과 신규 워크로드 창출을 통해 전체 메모리 수요를 오히려 키우는 방향으로 작용할 수 있다"고 말했습니다.
메모리 병목 현상을 완화해 시장 전체 규모를 키워 AI 인프라 투자를 더욱 가속하는 촉진제로 작용할 수 있다는 설명입니다.
숀 김 모건스탠리 분석가는 "모델이 성능 저하 없이 메모리 요구량을 낮춰 실행할 수 있다면 비용이 크게 감소해 AI 도입의 수익성이 높아질 것"이라며 "비용이 낮아지면 제품 채택 수요도 증가해 장기적으로 메모리 제조사에도 이익이 될 것"이라고 내다봤습니다.
영국 경제학자 윌리엄 제번스가 주창한 대로 기술의 효율성이 높아질수록 제품의 채택과 수요가 오히려 늘어난다는 '제번스의 역설'이 적용될 것이란 전망입니다.
메모리 업체들의 수익성을 높이고 있는 고대역폭메모리(HBM) 수요를 대체하는 기술로는 역부족일 것이라는 분석도 나옵니다.
김정호 KAIST 교수는 압축된 데이터를 풀어쓰는 과정에서 시간 지연이 불가피하다는 점을 지적하며 "고대역폭메모리(HBM)처럼 초고속 접근이 필요한 영역에는 적용이 쉽지 않을 것"이라고 설명했습니다.
그러면서 "당장 메모리 수요 구조 자체가 뒤집힐 것으로 보기는 어렵다"고 강조했습니다.
다만 "속도보다 용량과 비용이 중요한 낸드플래시 등 저장장치 영역에서는 이런 압축 기술이 의미를 가질 수 있다"고 덧붙였습니다.
아직 논문 수준의 상용화 전 기술이고, 향후 기술 파급력도 지켜봐야 한다는 목소리도 나옵니다.
김 교수는 "작년 딥시크(DeepSeek) 등장 때도 시장이 크게 반응했지만, 지금은 이를 언급하는 경우가 많지 않다"며 "터보퀀트 역시 대세를 완전히 바꿀 수준까지 갈지는 지켜봐야 한다"고 말했습니다.
(SBS 디지털뉴스부)

댓글