중국 AI 스타트업 딥시크(DeepSeek)가 저렴한 그래픽처리장치(GPU)로 효율적인 성능을 보여주며 오픈AI ‘챗GPT’의 아성을 흔들고 있다.
뉴욕타임스는 23일(현지시간) 딥시크가 오픈AI와 구글 등 실리콘밸리 기업보다 칩을 적게 사용하면서도 경쟁력있는 챗봇을 만들어냈다고 보도했다.
딥시크가 개발한 ‘딥시크-V3’에 투입된 비용은 557만6000달러(약 78억8000만원)으로, 엔비디아의 H800 GPU를 시간당 2달러에 2개월 동안 빌린 비용으로 계산됐다.
이는 메타가 최신 AI 거대언어모델(LLM) ‘라마3’에 H100으로 훈련한 비용의 10분의 1 수준이다. 딥시크가 사용한 H800은 미국의 고성능 칩 수출 규제로 엔비디아가 H100의 사양을 낮춰 출시한 칩이다.
오픈AI를 공동창업한 안드레이 카르파티도 엑스에 올린 글에서 입시크의 기술 보고서를 읽고 훌륭하고 상세하다는 평가를 내놨다.
오픈AI가 2022년 챗GPT를 선보이며 AI 열풍을 일으킨 이후 GPU칩에 수 억달러를 투자하지 않고서는 선도 기업과 경쟁할 수 없을 것이라는 진단이 나왔다. 하지만 AI 선두기업들이 1만6000개 이상 칩을 사용해 챗봇을 훈련한 것과 달리 딥시크는 엔비디아 GPU 약 2000개만 필요했다는 설명이다.
서방 언론들은 수출 규제 한계를 지적하고 나섰다. 뉴욕타임스는 “조 바이든 미국 대통령이 퇴임 직전 중국에 대한 AI칩 수출규제를 신규로 도입했지만 중국 일부 기업은 선구매했으며 일부는 규모가 커지는 암시장에서 조달했다”고 전했다. 파이년샐타임스(FT)도 “미국의 수출 규제가 의도치않게 혁신을 촉진해 딥시크의 AI 모델 개발비용이 저렴해졌다”고 분석했다.
미국 경제 전문지 포브스와 영국 주간지 이코노미스트 등도 딥시크를 집중 분석했다. 포브스는 벤치마크 평가를 과대평가해서는 안되지만 딥시크가 최신 칩 대신 혁신을 통해 성과를 거뒀다는 점을 강조했다.
특히 딥시크가 최근 선보인 ‘추론(reasoning) AI’ 모델인 ‘R1’이 일부 성능 테스트에서 오픈AI가 지난해 9월 출시한 추론 AI 모델 ‘o1’보다 앞선 것으로 나타났다는 점을 주목했다.
딥시크는 미국 수학경시대회 AIME 2024 벤치마크 테스트에서 추론 AI 모델이 79.8%를 얻어 오픈 AI의 추론 모델의 79.2%보다 앞섰다고 밝혔다. 코딩 부문 라이브벤치 평가에선 딥시크의 AI가 65.9%의 정확도를 기록해 챗GPT(63.4%)보다 높았다.
http://www.newdaily.co.kr/site/data/html/2025/01/26/2025012600024.html