DeepSeek-R1: 중국산 오픈소스 AI의 속도와 국가 안보 위험
DeepSeek-R1은 놀라운 성능을 자랑하는 오픈소스 AI 모델이지만, 중국에서 개발되었다는 점과 그로 인한 국가 안보 위험성 때문에 논란의 중심에 있습니다. 이 모델의 속도와 효율성, 그리고 그 이면에 도사리는 위험 요소들을 자세히 알아보고, 안전하게 사용하기 위한 방법을 모색해 보겠습니다.
DeepSeek의 R1 모델은 실시간 사이버 보안 AI의 규칙을 재정립하고 있습니다. 스타트업부터 대기업까지 이 새로운 모델을 통합하는 시험 운영을 진행하고 있습니다. 중국에서 개발된 R1은 지도 학습 없이 순수 강화 학습(RL)에 기반하며, 오픈소스로 제공되어 오픈소스 아키텍처, 개발 및 배포에 집중하는 거의 모든 사이버 보안 스타트업에 매력적인 선택지가 되고 있습니다.
DeepSeek는 이 모델에 650만 달러를 투자했으며, 그 결과 OpenAI의 o1-1217과 비슷한 추론 벤치마크 성능을 더 낮은 등급의 Nvidia H800 GPU에서 달성했습니다. DeepSeek의 가격 책정은 OpenAI 모델에 비해 훨씬 낮은 비용으로 새로운 기준을 제시합니다. DeepSeek-reasoner 모델은 백만 토큰당 2.19달러를 청구하는 반면, OpenAI의 o1 모델은 같은 양에 60달러를 청구합니다. 이러한 가격 차이와 오픈소스 아키텍처는 CIO, CISO, 사이버 보안 스타트업, 엔터프라이즈 소프트웨어 제공업체의 이목을 끌고 있습니다.
그러나 OpenAI는 DeepSeek가 자사 모델을 R1 및 다른 모델의 훈련에 사용했으며, 여러 쿼리를 통해 데이터를 유출했다고 주장하고 있습니다. 이러한 주장은 모델의 보안 및 신뢰성에 대한 우려를 더욱 증폭시키고 있습니다.
숨겨진 위험: 검열과 편향
미국 국토안보부(DHS) 사이버보안 및 인프라 보안청(CISA) 초대 청장이자 SentinelOne의 최고 공공 정책 책임자인 Chris Krebs는 모델의 보안과 신뢰성에 대한 핵심 문제로 검열과 은밀한 편향이 모델의 핵심에 통합되었을 가능성을 경고했습니다. 그는 중국 공산당(CCP)에 대한 비판적인 내용의 검열이 모델에 '내장'되어 객관적인 결과를 왜곡할 수 있다고 지적했습니다. 이는 중국 AI 모델의 '정치적 절제'가 미국 기반 오픈소스 AI 모델의 개발과 전 세계 확산을 지원할 수 있다는 것을 의미합니다.
Reco의 CISO이자 여러 보안 스타트업의 고문인 Merritt Baer는 DeepSeek-R1을 서구 인터넷 소스가 제어하는 광범위한 인터넷 데이터로 훈련하는 것이 이러한 우려에 대한 해독제가 될 수 있다고 말했습니다. 그는 Xi 주석에 대한 비판을 검열하는 것과 같은 명백한 문제보다 모델에 내재된 정치적 및 사회적 공학에 더 우려를 표명했습니다.
기술 제재 우회와 보안 취약성
DeepSeek는 중국에서 판매가 승인되었지만 H100 및 A100 프로세서보다 성능이 낮은 Nvidia H800 GPU를 사용하여 모델을 훈련함으로써 더욱 민주화하고 있습니다. R1을 실행할 수 있는 6,000달러짜리 시스템을 구축하는 방법을 설명하는 견적 및 자재 명세서가 소셜 미디어에 널리 퍼지고 있습니다.
R1과 후속 모델은 미국 기술 제재를 우회하도록 설계될 것이며, Krebs는 이를 미국의 AI 전략에 대한 직접적인 도전으로 보고 있습니다. Enkrypt AI의 DeepSeek-R1 적색 팀 보고서에 따르면, 이 모델은 "유해하고, 유독하며, 편향되고, CBRN이며, 안전하지 않은 코드 출력"을 생성하는 데 취약합니다. 또한 Claude 3 Opus보다 3배 더 편향되고, OpenAI의 o1보다 안전하지 않은 코드를 생성할 가능성이 4배 더 높으며, GPT-4o보다 4배 더 유독한 것으로 나타났습니다. OpenAI의 o1보다 유해한 출력을 생성할 가능성은 11배 더 높은 것으로 밝혀졌습니다.
데이터 프라이버시 및 국가 안보 위험
DeepSeek의 모바일 앱은 현재 글로벌 다운로드를 장악하고 있으며, 웹 버전은 중국 서버에 저장된 모든 개인 데이터와 함께 기록적인 트래픽을 기록하고 있습니다. 기업들은 위협을 줄이기 위해 격리된 서버에서 모델을 실행하는 것을 고려하고 있습니다. 미국 기업들은 자체 시스템에서 R1을 시험 운영하고 있으며, 민감한 정보가 중국 규정의 영향을 받지 않도록 Perplexity와 Hyperbolic Labs와 같은 플랫폼을 통해 미국 또는 유럽 데이터 센터에 안전하게 배포하고 있습니다.
Prompt Security의 CEO인 Itamar Golan은 데이터 프라이버시 위험이 DeepSeek를 넘어 확장된다고 주장합니다. 그는 기업이 민감한 데이터를 OpenAI 또는 기타 미국 기반 모델 제공업체에 제공해서는 안 된다고 지적하며, 중국으로의 데이터 흐름이 중요한 국가 안보 문제라면 미국 정부가 국내 AI 제공업체에 대한 보조금 지급과 같은 전략적 조치를 통해 경쟁력 있는 가격과 시장 균형을 유지해야 할 수도 있다고 말했습니다.
클라우드 보안 위협과 중요한 교훈
클라우드 보안 제공업체인 Wiz의 연구팀은 DeepSeek의 공개 인프라 조사 중 인터넷에서 열린 ClickHouse 데이터베이스를 발견했습니다. 이 데이터베이스에는 채팅 기록, 비밀 키, 백엔드 세부 정보가 포함된 백만 줄 이상의 로그가 포함되어 있었으며, 인증이 활성화되지 않아 권한 상승이 쉽게 이루어질 수 있었습니다. Wiz는 이 취약성을 DeepSeek에 알렸고, DeepSeek는 즉시 데이터베이스를 잠갔습니다. 이 사건은 AI 제공업체가 새로운 모델을 출시할 때 반드시 고려해야 할 세 가지 핵심 교훈을 보여줍니다.
- 모델을 출시하기 전에 적색 팀 활동을 수행하고 AI 인프라 보안을 철저히 테스트해야 합니다.
- 최소 권한 접근을 시행하고 제로 트러스트 마인드셋을 채택해야 합니다.
- 보안 팀과 AI 엔지니어가 협업하여 모델이 민감한 데이터를 보호하는 방식을 관리해야 합니다.
국가 안보의 역설
Krebs는 모델의 실제 위험은 제작 국가가 아니라 제작 방식에 있다고 경고했습니다. DeepSeek-R1은 민간 부문과 국가 정보 목표가 불가분의 관계인 중국 기술 산업의 산물입니다. 모델을 방화벽으로 차단하거나 로컬로 실행하는 것은 환상에 불과합니다. 편향 및 필터링 메커니즘은 기본 수준에서 이미 '내장'되어 있기 때문입니다.
DeepSeek-R1은 중국과 다른 국가에서 수집된 모든 데이터를 제어하는 국가가 얼마나 쉽게 오픈소스를 무기화할 수 있는지를 보여주는 역설을 만들어 냈습니다. 이 모델은 뛰어난 성능과 저렴한 비용으로 국가 안보에 대한 우려를 불러일으키는 대표적인 사례가 되었습니다. 국가 안보 및 사이버 보안 전문가들은 DeepSeek-R1과 같은 고성능 저비용 모델이 중국 및 기타 국가에서 계속 등장할 것이라고 예상하며, 이러한 모델의 안전하고 책임감 있는 사용을 위한 더욱 강력한 규제 및 보안 조치가 필요함을 강조하고 있습니다.