AI 전쟁 현실화에 윤리 논쟁 재점화…‘자율 살상무기’ 경계 커져
드론·AI 결합에 전쟁 속도 급가속…몇 분 만에 공격 결정 가능
핵 사용 선택한 AI 실험 결과 충격…국제 규범 필요성 재부상

인공지능(AI)의 군사 활용을 둘러싼 갈등이 실리콘밸리와 정치권을 동시에 흔들고 있다. 미·이란 전쟁이 장기화하는 가운데 AI가 실제 군사 작전에 투입되면서 AI 윤리 논쟁이 다시 확산하는 모습이다.
8일 AI 업계에 따르면 AI의 군사 활용에 반대하는 움직임이 실리콘밸리 전반으로 확산하고 있다. 구글과 오픈AI 현직 직원 약 1000명은 앤스로픽의 ‘레드라인’ 원칙을 지지하는 공개 서한에 서명했다. 미 국방부가 5일(현지시간) 앤스로픽을 ‘공급망 위험’ 기업으로 지정하고 오픈AI와 기밀 환경에서의 AI 모델 배치 계약을 체결한 데 대한 반발이다.
앤스로픽은 자사 AI가 미국 시민에 대한 대규모 감시나 인간 개입 없는 완전 자율 살상 무기 개발에 사용돼서는 안 된다는 입장을 유지하고 있다. 그러나 전문가들은 이번 사태로 촉발된 AI 윤리 논쟁이 시장 경쟁 논리를 넘어설 가능성은 크지 않다고 본다. 실제로 앤스로픽이 국방 계약에서 배제된 직후 오픈AI가 해당 자리를 빠르게 대체한 점이 이를 보여준다.
이번 논쟁을 계기로 기술 경쟁 속에서 뒤로 밀렸던 ‘안전한 AI 사용’ 문제도 다시 주목받고 있다. 시장조사업체 센서타워에 따르면 지난달 28일 기준 챗GPT 모바일 앱 삭제 건수는 전날 대비 295% 증가했다. 같은 날 앤스로픽 ‘클로드’의 미국 내 다운로드 수는 51% 늘어난 것으로 추정됐다. 챗GPT 구독 해지와 소셜미디어 보이콧 메시지를 공유하는 ‘큇GPT(QuitGPT)’ 캠페인도 확산하고 있다.
AI의 군사 활용이 현실화되면서 ‘AI 에이전트’는 새로운 위험 변수로 떠올랐다. 인간 개입 없이 AI가 전쟁 의사결정을 내릴 경우 공격 결정과 실행까지 걸리는 시간이 몇 분 단위로 줄어들 수 있다. 데이터 분석과 의사결정 과정이 자동화되면서 전쟁 속도가 급격히 빨라질 수 있기 때문이다.
드론과 AI 기술이 결합하면 테러 위협도 확대될 수 있다. 대규모 조직이 아니더라도 공격이 가능해지면서 국가뿐 아니라 비국가 행위자까지 AI 기반 공격 수단을 활용할 수 있다는 점에서 새로운 안보 위협으로 지목된다.
AI가 핵무기 사용을 선택할 가능성도 우려된다. 영국 킹스칼리지런던의 케네스 페인 전략학 교수 연구팀이 지난달 진행한 가상 전쟁 실험에서 3개 AI 모델은 21차례의 전쟁 시뮬레이션 중 20번 핵무기 발사를 선택했다. AI가 핵을 승리를 위한 효율적 수단으로 인식한 결과로 인간이 핵 억제력을 공멸을 막는 장치로 인식해 온 것과 대조적이다.
이미 AI는 전쟁의 양상을 바꾸고 있다. 러시아·우크라이나 전쟁에서는 미국 데이터 분석 기업 팔란티어의 AI 시스템과 드론이 대규모로 활용됐다. 최근 미군의 이란 공습에도 AI 기반 군사 정보 플랫폼 ‘메이븐 스마트 시스템’이 사용된 것으로 알려졌다. 이 플랫폼은 전장 데이터를 분석해 공격 목표를 식별한다.
AI가 산업 혁신을 넘어 국가 안보 경쟁의 핵심 변수로 떠오르면서 군사 활용 범위를 어디까지 허용할 것인지에 대한 기준 마련도 새로운 국제 과제로 부상하고 있다. 일각에서는 핵확산금지조약(NPT)처럼 AI의 군사 사용을 제한하는 국제 규범이 필요하다는 주장도 나온다.
다만 국제 합의를 마련하기는 쉽지 않다는 전망이 많다. 최병호 고려대 휴먼인스파이어드 AI연구원 연구교수는 “제1·2차 세계대전 이후 미국이 국제 연대를 주도해 왔지만 최근에는 국제 공조가 약화되는 흐름”이라며 “미국의 태도 변화 없이는 AI 전쟁 양상이 더 극단으로 치달을 수 있다”고 말했다.




