[딥시크-V3 앱 초기화면 캡처. 재판매 및 DB 금지]
김준억 기자 = 미국과 중국이 인공지능(AI) 패권을 놓고 경쟁을 벌이는 가운데 중국의 AI 스타트업인 딥시크(DeepSeek)가 챗GPT의 아성을 흔들고 있다는 분석이 나왔다.
서방 언론들은 딥시크가 대형언어모델(LLM) 훈련에 사용한 그래픽처리장치(GPU) 규모가 미국 거대 기술기업보다 훨씬 적어 효율적이라면서 미국의 수출 규제가 무력화될 수 있다고 지적했다.
뉴욕타임스(NYT)는 23일(현지시간) 보도한 분석 기사에서 딥시크가 오픈AI와 구글 등 실리콘밸리의 거대 기업보다 첨단 칩을 적게 사용하면서도 경쟁력 있는 챗봇을 만들어 미국의 AI칩 수출규제의 한계를 보여줬다고 밝혔다.
NYT는 딥시크가 챗GPT와 비슷한 성능의 '딥시크-V3'을 출시한 것도 기념비적이지만, 딥시크가 개발 경과를 설명한 기술 보고서의 내용이 더욱 큰 진전이라고 평가했다.
이 보고서에 따르면 딥시크-V3 개발에 투입된 비용은 557만6천달러(약 78억8천만원)에 그친다. 엔비디아의 'H800 GPU'를 시간당 2달러에 2개월 동안 빌린 비용으로 계산됐다.
[딥시크 기술 보고서 캡처. 재판매 및 DB 금지]
이는 메타가 최신 AI 모델인 라마(Llama)3 모델에 'H100'으로 훈련한 비용의 10분의 1 수준이다. 또한 딥시크가 사용한 H800은 미국의 고성능 칩 수출 규제로 엔비디아가 H100의 사양을 낮춰 출시한 칩이다.
오픈AI를 공동창업한 안드레이 카르파티도 지난달 26일 엑스(X·옛 트위터)에 올린 글에서 딥시크의 기술 보고서를 읽고 훌륭하고 상세하다는 평가와 함께 '농담 같은 예산'으로 선도적 LLM 출시를 쉬운 것처럼 보이게 했다고 언급했다.
NYT는 오픈AI가 2022년 챗GPT를 선보이며 AI 열풍을 일으킨 이후 전문가 다수는 특수 칩에 수억달러를 투자하지 않고서는 선도 기업과 경쟁할 수 없을 것으로 진단했지만, AI 선두 기업들이 1만6천개 이상의 칩을 사용해 챗봇을 훈련한 것과 달리 딥시크는 엔비디아 GPU 약 2천개만 필요했다고 밝혔다.
오픈소스 모델을 사용한 딥시크의 이런 성과는 미국의 제재로 고성능 AI 칩을 활용하기 어려워도 효율적 개발이 가능하다는 점을 확인했다는 의의가 있다.
NYT는 조 바이든 미국 대통령이 퇴임 직전 중국에 대한 AI칩 수출규제를 신규로 도입했지만, 중국 일부 기업은 선구매했으며 일부는 규모가 커지는 암시장에서 조달했다고 언급하며 규제 한계를 지적했다.
파이낸셜타임스(FT)도 같은 날 "딥시크 등 중국 스타트업들이 글로벌 거대 AI에 도전하고 있다"는 제목의 기사에서 미국의 수출규제가 의도치 않게 혁신을 촉진해 딥시크의 AI 모델 개발비용이 저렴해졌다고 짚었다.
앞서 타일러 코웬 조지메이슨대 교수도 지난 9일 블룸버그의 "중국의 딥시크는 트럼프의 무역 전쟁이 승리하기 어려운 이유를 보여준다"는 제목의 칼럼에서 딥시크-V3가 보여준 혁신은 AI 개발이 대규모 칩에 의존할 필요가 없다는 점을 시사한다고 언급했다.
코웬 교수는 딥시크-V3를 며칠 동안 사용한 결과 지금까지 사용한 LLM 모델 수십 개 가운데 뛰어난 모델 중 하나라고 평가하며 무역 측면과 아울러 기술적으로도 의미가 크다고 강조했다.
미국 경제 전문지 포브스와 영국 주간지 이코노미스트 등도 최신 기사에서 딥시크를 집중적으로 분석했다.
특히 딥시크가 최근 선보인 '추론(reasoning) AI' 모델인 'R1'이 일부 성능 테스트에서 챗GPT 개발사 오픈AI가 지난해 9월 출시한 추론 AI 모델 'o1'보다 앞선 것으로 나타났다는 점에 주목했다.
딥시크가 공개한 R1 기술 보고서에 따르면 미국 수학경시대회인 AIME 2024 벤치마크 테스트에서 'R1'은 79.8%를 얻어 'o1'의 79.2%보다 앞섰다. 또 코딩 부문에서는 라이브벤치 평가 결과 'R1'은 65.9%의 정확도를 기록해 'o1'(63.4%)보다 높았다.
[딥시크 기술 보고서 캡처. 재판매 및 DB 금지]
포브스는 이런 벤치마크 평가는 불완전할 수 있어 과대평가해서는 안 되지만, 딥시크가 최신 칩에 의존하는 대신 혁신을 통해 이런 성과를 거뒀다는 점에서 주목할 만하다고 강조했다.
또한 딥시크가 효율적인 LLM 기술인 'MoE(Mixture of experts·전문가 혼합)'를 활용한 자체 아키텍처를 개발했다는 점에 주목했다.
딥시크-R1은 문제 해결에 필요한 최적의 전문가들만 선별해 활용하는 방식으로 비유되는 이 기술을 활용해 전체 매개변수 6천710억개 가운데 370억개만 선별적으로 활성화했다고 포브스는 전했다.
이에 따라 중국 AI 업계에서 가격 인하 경쟁이 시작됐으며 이는 세계 각국으로 확산할 것이라고 포브스는 내다봤다.