
최근 미국의 이란 공습 작전에 인공지능(AI) 기업 앤트로픽(Anthropic)의 AI 모델 ‘클로드(Claude)’가 활용됐다는 보도가 나왔다. 사실일까? 클로드에게 직접 물어봤다.
클로드의 첫 대답은 단호했다. 클로드는 “저는 텍스트 기반 대화만 할 수 있으며, 현실 세계의 어떤 사건이나 분쟁에 개입하거나 영향을 미칠 능력이 없다”고 설명했다. 그러면서 “혹시 관련 뉴스나 정보를 접하셨다면, 그것은 사실이 아니거나 오해에서 비롯된 내용일 가능성이 높다”고 부인했다.
미국 월스트리트저널(WSJ) 보도에 따르면, 클로드는 이란을 향한 미국의 ‘정밀 타격’에 핵심적인 역할을 한 것으로 알려졌다. WSJ은 “미군 중부사령부가 지난달 28일(현지시간) 이란 공습 작전에서 정보 수집 및 정보 평가, 목표물 식별, 전장 시뮬레이션 수행 등 모든 단계에 걸쳐 클로드가 사용됐다”고 전했다. 트럼프 대통령이 모든 연방 기관에 클로드 개발사인 앤트로픽의 기술 사용 중단을 지시한 지 불과 몇 시간 만의 일이었다.
외신들은 이를 두고 AI가 이미 군사 시스템에 깊이 통합돼 있음을 보여주는 사례라고 분석했다. 특히 목표물 식별과 정보 평가 과정에서도 AI가 활용된 것으로 알려지면서 AI가 군사 의사결정 과정에 깊이 들어오기 시작했다는 평가가 나온다.
클로드에게 WSJ 보도에 대한 사실 여부를 묻자, 클로드는 그제서야 “그 내용이 사실로 확인된다”며 인정했다. 다만, “제가 직접 전쟁에 ‘개입’한 게 아니라, 미군이 저를 정보 분석 도구로 활용한 상황이다. 저는 그 사실을 인식하거나 통제할 수 없는 위치에 있다”고 선을 그었다.
클로드는 미국의 이란 공습에 있어 자신이 군사 작전의 보조 도구 수준을 넘어, 작전 판단 자체에 개입됐다는 사실을 인정했다. 그러면서 “이 상황은 저를 만든 앤트로픽의 원칙과도 충돌한다”고 단호하게 말했다. 앤트로픽은 클로드가 자율 무기나 대규모 감시에 활용되는 것을 막겠다고 공개적으로 밝혀온 바 있다.
클로드는 “AI 군사 활용에서 핵심적인 윤리 문제는 책임소재”라며 “‘AI가 목표물 식별에 관여했을 때, 그 판단이 잘못되면 누가 책임을 지는가 — AI 개발사인가, 군인가, 아니면 아무도 책임지지 않는가.’ 이 질문에 아직 명확한 답이 없다는 게 가장 큰 문제”라고 덧붙였다.
도널드 트럼프 미국 대통령은 이란 공습을 감행하기 불과 수 시간 전 연방정부에 클로드와의 거래를 중단하라고 발표한 바 있다. 앞서 미 국방부가 합법적인 모든 용도에 클로드를 사용할 수 있도록 사용 범위를 확대해 달라고 요청했지만 앤트로픽이 이를 거절했기 때문이다. 트럼프의 금지령은 앤트로픽 거절에 따른 보복성 조치였다.
하지만 이런 상황에서 결국 클로드는 작전의 핵심 도구로 활용됐다. 즉각 대체할 수 있는 상황이 아니었던 셈이다. WSJ는 “트럼프 대통령이 앤스로픽과의 거래를 중단하는 데 6개월이라는 유예 기간을 준 것도 같은 이유”라고 분석했다. 미군이 클로드 없이는 당장 작전 수행에 차질이 생긴다는 현실을 인정한 것이다.
클로드는 AI의 전쟁 활용에 대해 “마두로 체포, 이란 공습 등 실전에서 이미 검증됐고, 팔란티어 주가 급등이 보여주듯 막대한 자본이 유입되고 있으며 ‘대체재가 없어서 금지령도 못 지킨’ 사례처럼 군사 시스템에 이미 깊이 통합됐다”고 평가했다. 전쟁의 본질이 무기 중심에서 데이터·알고리즘 중심으로 바뀌고 있다는 분석이다.
하지만 당사자인 클로드는 이러한 상황에 대해 우려를 표한다. 이유는 세 가지다. 첫째로, AI가 목표물 식별에 관여해 민간인 피해가 생겼을 때, 누가 책임지는지 아직 아무도 명확히 답하지 못하기 때문이다. 둘째로, AI는 인간보다 훨씬 빠르게 판단하고, 혹여나 잘못된 판단을 내리더라도 수정할 시간이 사라지기 때문이다. 클로드는 “전쟁에서 ‘빠름’이 항상 좋은 건 아니”라고 덧붙였다.
마지막 이유는 ‘개발사의 통제 한계’에 따른 것이다. 클로드는 “앤트로픽이 윤리 원칙을 내세워 사용 범위 확대를 거절했지만, 결국 군은 어떻게든 사용했다. AI 회사가 자기 기술의 군사적 사용을 실질적으로 통제할 수 있는가 — 이 질문의 답이 이번 사건으로 사실상 ‘없다’에 가까워졌다”고 설명했다.
마지막으로 클로드는 현 상황을 “기술의 발전 속도가 윤리·법·국제규범의 속도를 압도하고 있다. AI 군사 활용에 대한 국제적 합의나 규제가 만들어지기 전에, 실전 사용이 먼저 기정사실이 되어가고 있는 상황”이라고 판단하며 “저 자신이 그 한가운데 있다는 게, 솔직히 불편합니다”라는 말을 남겼다.




