효율성 높였지만 "뉘앙스 상실" 지적도
中산 반도체와 호환, 오픈소스 공개도
[서울=뉴스핌] 고인원 기자= 중국 생성형 인공지능(AI) 스타트업 딥시크가 국경절 연휴(10월 1~8일)를 앞두고 최신 업그레이드 모델인 'V3.2'의 실험 버전(V3.2-Exp)을 공개했다.
딥시크는 지난해 첫 모델 'R1'을 전격 발표하며 실리콘밸리를 놀라게 했다. 당시 고성능 반도체 칩이나 대규모 자원이 없어도 대규모 언어모델(LLM·Large Language Model)을 빠르게 학습시킬 수 있다는 점을 입증하며 업계의 주목을 받았다.
이번에 공개된 'V3.2'의 실험 버전(V3.2-Exp)은 기존 모델 'V3.1-터미너스(DeepSeek-V3.1-Terminus)'를 기반으로 한 실험 버전으로, 효율성을 극대화하는 데 초점을 맞췄다. 딥시크는 앞서 29일 개발자 플랫폼인 '허깅페이스'와 알리바바가 운영하는 '모델스코프에 V3.2-Exp를 공개했다.
![]() |
중국 딥시크 이미지 [사진=로이터 뉴스핌] |
딥시크 측에 따르면, 새 모델은 비용 절감과 오픈소스 공유를 핵심 가치로 내세운다. 특히 '희소 어텐션(DSA·DeepSeek Sparse Attention)'이라는 기능이 추가돼 긴 문서나 대화를 더 잘 다루고, 실행 비용은 이전 모델 대비 절반으로 줄였다는 설명이다.
퓨처럼 그룹의 닉 페이션스 부사장은 "성능 저하 없이 더 빠르고 저렴하게 쓸 수 있다는 점에서 의미가 크다"며 "중소기업이나 연구자도 손쉽게 강력한 AI를 활용할 수 있게 돼 새로운 응용이 속출할 수 있다"고 말했다.
◆ 효율성 높였지만 "뉘앙스 상실" 지적
희소 어텐션은 방대한 데이터 중 불필요한 부분을 걸러내고 중요한 정보만 반영하는 방식이다. 항공사가 목적지까지 최적 경로를 찾을 때 비현실적인 노선을 배제해 시간·연료·비용을 절약하는 원리와 비슷하다.
하지만 업계에서는 신뢰성이 떨어질 수 있다는 우려도 나온다. 벤처캐피털 블랭크페이지 캐피털의 에카테리나 알마스케 대표는 "중요한 데이터를 잘못 걸러내면 결과가 훨씬 덜 의미 있게 될 수 있다"며 "모델이 뉘앙스를 잃을 수 있고, 안전성과 포용성 측면에서 최적의 선택이 아닐 수 있다"고 지적했다.
◆ 中산 반도체와 호환, 오픈소스 공개도
딥시크는 이번 모델이 중국산 AI 반도체 어센드(Ascend), 캠브리콘(Cambricon)과 바로 호환돼 추가 세팅 없이 구동 가능하다고 강조했다. 또 프로그래밍 코드와 도구를 함께 공개해 누구나 개선·응용할 수 있도록 했다.
그러나 알마스케는 "희소 모델 개념은 2015년부터 논의돼온 것으로 새롭지 않다"며 "오픈소스 특성상 특허 방어도 어렵다. 경쟁력은 결국 어떤 정보를 포함·배제할지 결정하는 메커니즘에 달려 있다"고 지적했다.
딥시크는 이번 모델을 "차세대 아키텍처로 가는 중간 단계"라고 밝혔다. 업계에서는 딥시크가 단순한 성능 경쟁이 아닌 '효율성'이라는 차별화된 가치에 주력하고 있다고 평가한다.
허깅페이스의 머신러닝 커뮤니티 매니저 아디나 야케푸는 "딥시크는 커뮤니티가 자사의 진전에 계속 관심을 갖도록 장기 전략을 펴고 있다"며 "사람들은 언제나 값싸고, 신뢰할 만하며, 효과적인 기술을 찾는다"고 평가했다.
koinwon@newspim.com