"살상 무기 사용 금지 등 레드라인은 지켜야...긴장 완화 도움 희망"
[뉴욕=뉴스핌]김근철 특파원=샘 올트먼 오픈AI 최고경영자(CEO)가 인공지능(AI)의 군사적 활용을 둘러싼 미 국방부와 앤스로픽 간 갈등 상황을 중재하기 위해 나섰다고 월스트리트저널(WSJ)이 27일(현지 시간) 보도했다.
WSJ에 따르면 올트먼은 전날 직원들에게 보낸 메모에서 회사가 양측의 교착 상태를 해결하는 데 도움이 될 수 있는 합의를 모색하고 있다고 밝혔다. 또 미 국방부와 기밀 환경에서 AI 모델을 활용하는 방안을 논의 중이라며, 업계 전반에 적용 가능한 해법을 찾고 있다고 전했다.
올트먼은 "우리 모델이 '기밀 환경'에 사용되면서도 회사의 원칙에 부합하는 계약이 가능한지 국방부와 논의할 것"이라며 "국내 감시나 자율적 공격 무기처럼 불법이거나 클라우드 배치에 적합하지 않은 사용은 계약 대상에서 제외하도록 요구할 것"이라고 설명했다.
그는 "합의가 성사될지 여부는 아직 확정되지 않았으며, 협상이 결렬될 가능성도 있다"고 덧붙였다.
올트먼은 또 "AI는 대규모 감시나 자율 살상 무기에 사용돼서는 안 되며, 고위험 자동화 의사 결정에는 반드시 인간이 개입해야 한다는 것이 우리의 핵심 레드라인"이라고 강조했다.
이 같은 언급은 앤스로픽이 자사 AI 모델 '클로드'의 안전 제한을 해제하고 군이 모든 합법적 군사적 용도로 사용할 수 있도록 허용하라는 국방부의 최후 통첩을 거부한 가운데 나왔다.
그는 양측 사이에서 중재 역할을 해 업계에 위험한 선례가 남는 것을 피하고 싶다면서 "우리는 사태의 긴장을 완화하는 데 기여하고 싶다"고 적었다.
한편 올트먼은 이번 갈등의 본질은 "AI가 어떻게 사용될 것인가의 문제가 아니라, 누가 통제하느냐의 문제라고 본다"라고 짚었다.

그는 "우리는 사기업이 민주적으로 선출된 미국 정부보다 더 강력한 권한을 가져서는 안 된다고 믿는다"면서도 "다만 기업은 많은 의견과 영향력을 행사할 수 있다. 민주주의는 복잡하지만 우리는 이를 지지한다"고 밝혔다.
WSJ에 따르면 오픈AI는 기술적 장치를 통해 자사 원칙을 실질적으로 강제할 수 있다고 보고 있다. 예컨대 AI 모델을 이른바 '엣지(edge)' 환경이 아닌 클라우드 환경에 한정해 배치함으로써 자율 무기 등으로의 전용을 차단하는 방식이다. 또 연구 인력에 대한 보안 인가를 확보해 정부에 기술의 한계와 위험성을 설명하고, 현장 배치 인력을 투입해 운용 과정이 원칙에 부합하는지 점검하겠다는 구상도 제시했다.
올트먼은 "유사한 서비스를 동맹국에도 제공할 수 있다"며 "성공한다면 다른 AI 연구소에도 적용 가능한 모델이 될 수 있다"고 밝혔다.
앞서 다리오 아모데이 앤스로픽 CEO는 전날 성명을 통해 미 국방부가 안전 제한 없는 '모든 합법적 사용' 조건을 거부했다고 밝혔다. 앤스로픽은 자사 기술이 국내 대규모 감시나 자율 살상 무기 시스템에 활용되는 것을 막기 위한 최소한의 윤리적 가이드라인을 고수해 왔다.
이에 대해 미 국방부 연구·공학 담당 차관인 에밀 마이클은 소셜 미디어 엑스(X)에 "대규모 감시는 수정 헌법 4조에 따라 이미 불법"이라며 "미국인의 시민적 자유를 거대 기술 기업이 결정하도록 두지 않겠다"고 반박했다.
국방부는 앤스로픽이 제한 해제 요구를 거부할 경우 국방물자생산법(DPA)을 발동해 강제하거나, 해당 기업을 '공급망 리스크' 업체로 지정하겠다고 위협하고 있는 것으로 알려졌다.
.
kckim100@newspim.com













