'의존형 vs 소버린 AI' 선택 고민
인프라 보호 위한 '열린 소버린 AI' 필요
[세종=뉴스핌] 이경태 기자 = 최근 미국 국방부가 인공지능(AI) 스타트업 엔트로픽(Anthropic)과의 계약을 끊는 방안까지 검토하고 있다는 보도가 나왔다. 엔트로픽은 대형 언어 모델 '클로드(Claude)'를 개발한 회사로, 미국 국방부는 이 모델을 군사 작전과 정보 분석에 폭넓게 활용해 왔다. 그런데 양측은 "클로드를 어디까지 군사적으로 쓸 수 있느냐"를 두고 합의에 이르지 못한 채 평행선을 달리고 있다.
쟁점은 두 가지다. 엔트로픽은 자사 AI를 미국 시민을 대상으로 한 대규모 감시(mass domestic surveillance)에 쓰는 것과 인간 개입 없이 발포까지 하는 완전 자율 무기(fully autonomous weapons)에 쓰는 것은 허용할 수 없다는 입장을 분명히 하고 있다.
반면 미국 국방부는 엔트로픽·오픈AI·구글·xAI 같은 민간 회사들의 모델을 "법이 허용하는 모든 목적(all lawful purposes)"에 자유롭게 쓰도록 해 달라고 요구한다. 세계 최강 군대와 민간 AI 스타트업이 "누가 사용 조건을 정할 권리가 있는가"를 두고 힘겨루기를 벌이고 있는 셈이다.

이 갈등은 한 가지 불편한 현실을 드러낸다. 오늘날 국가 안보의 심장부까지 들어온 AI와 클라우드가, 결국 몇 개 민간 기업의 정책과 가치관, 그리고 그 기업이 속한 국가의 법·외교 전략에 의해 좌우된다는 사실이다. 특정 회사의 이사회가 윤리 기준을 강화하겠다고 마음먹는 순간, 군사·정보·경찰의 활용 범위는 하루아침에 달라질 수 있다. 반대로, 특정 정부가 안보를 이유로 "더 과감한 활용"을 요구하면, 민간 회사의 내부 원칙은 거센 정치·여론의 압력을 받게 된다.
문제는 이것이 미국만의 이야기가 아니라는 점이다. 한국 역시 번역·검색·코딩·문서 작성에서부터 행정 시스템과 공공 서비스 일부까지, 이미 외산 AI와 클라우드에 상당 부분 기대고 있다. 가령 한국의 어느 부처가 외국 빅테크의 LLM API와 클라우드 위에서 데이터 분석·정책 시뮬레이션·재난 대응 시스템을 돌리고 있다고 상상해 보자.
어느 날 그 기업이 자체 정책을 바꿔, 특정 유형의 감시·정보 분석·국경 통제에는 모델을 쓸 수 없다고 선언하거나, 해당 국가와 관련된 서비스만 별도의 심사를 거치겠다고 결정할 수 있다. 정권 교체, 국제 제재, 동맹국 간 갈등 등 우리가 통제할 수 없는 사건들이, 곧바로 AI 서비스 중단과 기능 제한으로 번역되는 구조다.
이런 상황에서 '소버린 AI(sovereign AI)'라는 단어는 매력적인 해법처럼 보인다. 하지만 이 개념을 둘러싼 비판도 만만치 않다.
첫째, 소버린 AI가 국가주의·AI 국수주의로 흘러, 사실상 "국가가 통제하는 공식 AI"를 만들려는 시도로 변질될 수 있다는 우려다. 특정 정권이 마음만 먹으면, 자국 모델을 여론 통제·검열·프로파간다의 도구로 활용하기 쉬운 구조이기도 하다. 둘째, 모든 나라가 풀스택 독자 모델을 외치다 보면, 데이터·GPU·인력은 갈가리 쪼개지고 연구·산업 전체 효율은 떨어질 수 있다.
셋째, 소버린 AI가 데이터와 인프라의 국경을 더 높여 글로벌 협력과 상호 검증을 어렵게 만들 위험도 있다. AI가 국경마다 다른 규제·포맷·표준에 묶이면, 기업과 개발자는 각국 버전의 모델과 서비스를 따로 유지해야 하는 추가 비용을 떠안는다.
넷째, '국가 주권'이라는 수사가 붙는 순간, AI 투자가 군사·정보 프로젝트에 과도하게 쏠릴 수 있다. 이 경우 의료·교육·기후·복지 등 시민 삶을 바꾸는 영역의 혁신은 오히려 뒷전으로 밀릴 수 있다. 마지막으로, 하드웨어·OS·클라우드는 여전히 외국 회사에 의존하면서 겉으로만 국산 LLM과 국책 프로젝트를 내세우는 '명목상 주권'에 그칠 수도 있다. 레이블만 소버린일 뿐 실제 의존도는 더 깊어지는 역설이다.
그렇다면 해법은 '의존형 AI'와 '소버린 AI' 중 하나를 택하는 양자택일일까. 그렇지 않다. 필요한 것은 '폐쇄적 주권'이 아니라 '열린 소버린 AI'에 가깝다. 모든 것을 국산으로 대체하자는 게 아니라, 끊기면 국가와 시민이 크게 다치는 층위만큼은 스스로 책임질 수 있는 구조를 만들자는 제안이다. 인프라 측면에서는 일정 비율의 국가 데이터센터, 전력·네트워크, AI 반도체를 자국 내에서 확보하되, 이를 글로벌 클라우드·오픈소스와 상호운용 가능하게 설계하는 것이 핵심이다.
모델 레이어에서도 마찬가지다. 한국어와 한국 사회 맥락을 깊이 이해하는 기초 모델 몇 개는 공공재 수준으로 확보하되, 이를 모든 상황에서 '국산 우선'으로 강제할 필요는 없다.
행정·안보·핵심 인프라 등 끊기면 안 되는 영역에서는 자국·공공 모델을 기본값으로 쓰되, 연구·민간 서비스·글로벌 협업 영역에서는 오픈소스·외산 모델과 자유롭게 섞어 쓰는 하이브리드 전략이 현실적이다.
중요한 것은 "누가 만든 모델인가"가 아니라, "필요할 때 우리가 사용 조건을 바꿀 수 있는가, 끊길 위험을 관리할 수 있는가"다.
여기서 국가가 통제해야 할 것은 콘텐츠가 아니라 규칙이다. 어떤 질문을 막고 어떤 답을 지울지 정하는 방식의 통제가 아니다. 바로 ▲어떤 용도에는 이 AI를 절대 쓰지 않는다 ▲어떤 상황에서도 시민 기본 서비스는 일괄 중단하지 않는다 ▲군사·정보 활용에는 반드시 인간 개입과 민주적 감시를 둔다 등과 같은 사용 프로토콜을 정하는 통제다.
이 규칙은 법과 독립 감독기구, 기술적 안전장치로 뒷받침돼야 한다. 평시에는 글로벌 빅테크와 나란히 경쟁·협력하면서도, 위기 상황에서는 최소한의 기술적·제도적 자율성을 행사할 수 있어야 진짜 의미의 소버린 AI다.
엔트로픽과 미국 국방부의 갈등은 우리에게 묻는다. "당신의 안보와 행정, 경제 시스템은 누구의 정책 변경에 의해 끊길 수 있는가?" 우리는 이미 수많은 외산 AI와 클라우드를 당연한 배경처럼 쓰고 있다.
다만 끊길 수 있는 AI 위에 나라 전체를 올려놓을 것인지, 끊기면 안 되는 나라를 위해 어느 정도의 버팀목과 선택권을 확보해 둘 것인지는 아직 결정하지 않았다. 여전히 이어지는 소버린 AI 논쟁은 국산 LLM 자랑을 위한 슬로건이 아니라, 이 질문에 대한 설계도의 이름이어야 한다.
biggerthanseoul@newspim.com












