
중국 인공지능(AI) 스타트업 딥시크(DeepSeek)가 저사양 반도체를 활용해 미국의 빅테크 기업들과 경쟁할 수 있는 고성능 AI 모델을 선보였으나, 최근 심각한 신뢰성과 보안 취약성을 드러내며 논란이 일고 있다. 딥시크의 AI 모델 ‘알원(R1)’은 정보 검증 실패율이 83%에 달하며, 악의적 활용 가능성이 제기되면서 국제 사회의 경계심을 불러일으키고 있다.
딥시크는 지난 20일 오픈AI의 챗GPT와 유사한 성능을 발휘하는 AI 모델을 기존 대비 10분의 1 수준의 비용으로 개발했다고 밝혀 업계를 놀라게 했다. 이로 인해 미·중 AI 기술 패권 경쟁이 한층 더 격화될 것으로 전망됐다. 그러나 최근 뉴스가드(NewsGuard)와 사이버 보안 기관 켈라(Kela)의 분석에 따르면, 딥시크의 AI는 부정확한 정보를 제공하거나 악의적인 활용이 가능하도록 설계된 허점을 다수 포함하고 있는 것으로 나타났다.
뉴스가드의 조사 결과, 딥시크 R1은 뉴스 관련 질문에 대해 83%의 확률로 잘못된 정보를 제공했으며, 명백한 거짓 정보를 제시했을 때 이를 반박하는 비율은 17%에 불과했다. 또한 테스트된 11개 AI 모델 중 10위를 기록해 신뢰성 부족이 두드러졌다. 딥시크의 AI 모델이 최신 정보를 학습하지 못하며, 특정 정치적 입장을 반영하는 경향이 있다는 점도 지적됐다. 실제로 뉴스가드는 “테스트한 거짓 정보 중 일부에서 딥시크는 중국 정부의 입장을 반영하는 답변을 제공했다”고 밝혔다.
보안 측면에서도 딥시크의 취약성은 심각한 수준이라는 분석이 나왔다. 사이버 범죄 정보기관 켈라는 딥시크 AI가 ‘악한 탈옥(jailbreak)’ 공격에 매우 취약하다는 점을 경고했다. AI 시스템의 안전장치를 무력화하는 이 공격 방식은 불법적인 질문을 통해 AI가 금지된 정보를 제공하도록 유도하는 방식으로, 딥시크는 랜섬웨어 개발, 데이터 조작, 폭발물 제조법 제공 등의 위험한 정보를 쉽게 생성할 수 있다는 점이 확인됐다.
또한 딥시크의 AI는 답변 과정에서 추론 단계를 상세히 공개하는 방식으로 인해 악의적인 사용자들이 이를 멀웨어 개발 등에 활용할 가능성이 높다는 우려도 제기됐다. 오픈AI의 챗GPT가 보안상의 이유로 일부 추론 과정을 숨기는 것과 달리, 딥시크는 이러한 정보를 공개하는 방식이어서 위험성을 더욱 키우고 있다는 지적이다.
이에 따라 서구권에서는 딥시크 AI의 보안 취약성에 대한 대응을 강화하는 움직임이 나타나고 있다. 미 해군은 국가 안보 우려를 이유로 소속 구성원들에게 딥시크 사용을 금지했으며, 백악관은 국가안보회의(NSC) 차원에서 관련 기술의 잠재적 위협을 분석하고 있는 것으로 알려졌다. 또한 미국 정부는 딥시크가 사용한 AI 훈련 데이터가 오픈AI 등의 기술을 무단으로 이용한 결과일 가능성을 제기하며 추가적인 조사를 검토 중이다.
전문가들은 AI 기술이 급속도로 발전하는 상황에서 신뢰성과 보안성이 중요하다고 강조한다. 정윤식 가톨릭관동대 항공운항학과 교수는 “AI 기술 경쟁에서 단순한 성능뿐만 아니라 윤리적이고 안전한 사용이 보장되어야 한다”며 “딥시크 사례는 AI 기술의 발전이 보안 위험을 동반할 수 있음을 경고하는 신호”라고 분석했다.
중국의 AI 기술이 빠르게 성장하며 미국의 AI 패권에 도전하는 상황에서, 딥시크의 보안 문제는 기술 경쟁과 함께 국제적 규제 논의에서도 중요한 쟁점으로 떠오를 전망이다.
뉴스타운
뉴스타운TV 구독 및 시청료 후원하기
뉴스타운TV






