AI 핵심 요약
beta- 오픈AI 구글 앤스로픽이 7일 중국 AI의 모델 추출을 막기 위해 공조했다.
- 프런티어 모델 포럼 통해 적대적 증류 시도를 탐지 공유한다.
- 중국 딥시크 등이 무단 증류로 안전장치 제거 모델 만들어 시장 잠식한다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
다음은 인공지능(AI) 번역을 통해 생산한 콘텐츠로, 원문은 4월7일 블룸버그 보도입니다.
[서울=뉴스핌] 황숙혜 기자 = 오픈AI와 앤스로픽 PBC, 그리고 알파벳(GOOG) 산하 구글이 세계 AI 경쟁에서 우위를 점하기 위해 중국 경쟁사들이 미국의 최첨단 인공지능 모델 결과물을 추출하는 행위를 차단하고자 공조에 나섰다.
사안에 정통한 관계자들에 따르면, 이들 기업은 2023년 마이크로소프트와 함께 설립한 업계 비영리단체 '프런티어 모델 포럼'을 통해 정보를 공유하며, 서비스 약관을 위반하는 이른바 '적대적 증류(adversarial distillation)' 시도를 탐지하고 있다.
이 같은 이례적 협력은 일부 사용자들, 특히 중국 쪽에서 이들 기업의 제품을 모방한 버전을 만들어 더 낮은 가격으로 시장을 잠식하고 고객을 빼앗을 수 있다는 미국 AI 기업들의 우려가 얼마나 심각한지를 보여준다. 또한 이는 국가안보 위험으로도 이어질 수 있다. 익명을 요구한 한 관계자에 따르면, 미국 당국은 무단 증류로 인해 실리콘밸리 연구소들이 매년 수십억달러의 이익을 잃고 있는 것으로 추산하고 있다.

오픈AI는 프런티어 모델 포럼을 통한 적대적 증류 정보 공유 작업에 참여하고 있다고 확인했으며, 최근 의회에 제출한 메모를 언급했다. 이 메모에서 오픈AI는 중국 기업 딥시크가 "오픈AI와 다른 미국 프런티어 연구소들이 개발한 역량에 무임승차하려 한다"고 비판했다. 구글과 앤스로픽, 프런티어 모델 포럼은 논평을 거부했다.
증류는 기존의 '교사(teacher)' AI 모델을 활용해 새로운 '학생(student)' 모델을 훈련시키는 기술로, 앞선 시스템의 능력을 재현하도록 만드는 방식이다. 대개 처음부터 독자 모델을 만드는 것보다 훨씬 적은 비용이 든다. 일부 형태의 증류는 AI 연구소들 사이에서 널리 받아들여지거나 장려되기도 한다. 예컨대 기업이 자사 모델의 더 작고 효율적인 버전을 만들거나, 외부 개발자들이 경쟁 관계가 아닌 기술을 개발하는 데 증류를 사용하도록 허용하는 경우가 그렇다.
그러나 제3자가 무단으로 독점 기술을 복제하는 데 증류를 활용할 경우, 특히 중국이나 러시아 같은 경쟁국에서 이 기술이 사용될 경우 큰 논란이 된다. 미국의 주요 AI 연구소들은 외국 경쟁 세력이 이 기술을 활용해 안전장치를 제거한 AI 모델을 개발할 수 있다고 경고해 왔다. 예를 들어 사용자가 치명적 병원체를 만드는 것을 막는 제한 장치가 빠질 수 있다는 우려다.
중국 연구소들이 만든 대부분의 모델은 '오픈 웨이트(open weight)' 방식이다. 이는 AI 시스템의 기반이 되는 일부 요소가 공개돼 사용자가 이를 자유롭게 내려받아 자체 플랫폼에서 실행할 수 있다는 뜻이며, 따라서 이용 비용도 더 낮다. 이는 모델을 비공개로 유지해 온 미국 AI 기업들에 경제적 도전이 된다. 이들 기업은 고객이 자사 제품 접근 권한에 비용을 지불하고, 그 돈으로 데이터센터와 기타 인프라에 투입한 수천억달러를 회수할 수 있을 것으로 기대해 왔다.
증류 문제가 본격적인 주목을 받기 시작한 것은 2025년 1월이었다. 딥시크가 추론 모델 R1을 깜짝 공개해 AI 업계에 큰 충격을 준 직후였다. 이후 마이크로소프트와 오픈AI는 이 중국 스타트업이 R1 개발을 위해 미국 기업 모델에서 대량의 데이터를 부적절하게 빼돌렸는지 여부를 조사했다는 보도가 나온 바 있다.
오픈AI는 2월 미국 의회에 딥시크가 자사 제품 오남용 방지 조치가 강화된 이후에도 점점 더 정교한 방식으로 미국 모델의 결과를 추출하려 했다고 경고했다. 오픈AI는 하원 중국특위에 제출한 메모에서, 딥시크가 자사의 대표 챗봇 새 버전을 개발하는 데 증류에 의존하고 있다고 주장했다.
앤스로픽은 지난해 중국이 통제하는 기업들의 자사 챗봇 클로드 사용을 차단했으며, 2월에는 딥시크와 문샷, 미니맥스 등 중국 AI 연구소 세 곳이 증류를 통해 클로드의 기능을 불법적으로 추출했다고 밝혔다. 앤스로픽은 올해 이 위협이 "특정 기업이나 지역을 넘어선 문제"이며 국가안보 위험이라고 지적했다. 증류된 모델은 악의적 행위자들이 AI 도구를 부정하게 사용하는 것을 막기 위해 설계된 안전장치를 갖추지 못한 경우가 많기 때문이다.
구글도 모델 추출 시도가 증가하고 있음을 확인했다는 내용의 블로그 글을 공개한 바 있다. 다만 이들 미국 AI 연구소 3곳은 아직 중국의 모델 혁신 가운데 어느 정도가 증류에 의존하는지 보여주는 증거를 제시하지는 않았다. 대신 이들은 대규모 데이터 요청 물량을 기준으로 이런 공격의 빈도를 측정할 수 있다고 보고 있다.
shhwang@newspim.com













