AI 작전 참모, 이제 전장의 두뇌다

300초. 전장에서 사람의 판단이 필요했던 순간은 이제 거의 사라졌다.
2022년 러시아-우크라이나 전쟁은 '인공지능 전쟁의 시험대'라고 불렸다. 지금은 더 이상 ‘시험’이 아니다.
실제로 작전을 수행하는 주체가 누구인지보다, ‘결정권’을 누가 행사하는지가 중요한 시점이라는 것을 깨달았어야 했는데…
이젠 그것도 뒤바뀌었다.
작전 참모가 인간이 아님은 사실이다.
아니, 인간은 여전히 통제센터에 있지만, 그 안으로 유입되는 모든 정보를 처리하고, 전술 조건을 무조건적으로 도출하는 것은 이미 인공지능이다.
특히 대규모 언어 모델(Large Language Model), 즉 우리에게 익숙한 챗지피티처럼 생긴 존재들이 전장의 ‘두뇌’ 역할을 하기 시작했다.
오픈에이아이가 미국 국방부와 기밀 네트워크용 인공지능 모델 배포 계약을 체결했다는 건,
‘내부 정보’를 다룰 수 있도록 특별히 설정된 인공지능이 실제 군사 시스템과 연동됐음을 의미한다.
이는 단순한 디지털 지원이 아니라, 작전 결정에 직접적인 영향을 미친다는 뜻이다.
“이란 공격에 인공지능을 작전 참모로 사용?” — 파이낸셜뉴스의 제목이 왜 이렇게 강렬하게 다가왔는지 이해할 수 있을 것이다.
그리고 한국에서도 K-AI칩이 시장 안착을 위한 실험 장소로 활용 중이다.
이것은 단순한 반도체 경쟁이 아니라, 군사용 인공지능 컴퓨팅 성능의 기반이 될 가능성이 있기 때문이다.
지금은 민간용이라고 하지만, 어디선가 ‘혹시 이 칩이 전투 드론의 뇌가 되었을까?’라는 생각이 계속 머릿속을 스쳐간다.
문제는, 이 모든 것이 너무 빠르게 진행되고 있다는 점이다.
인공지능이 잘못 판단하면, 진짜로 사람들이 죽는다.
윤리적 책임 소재도 명확치 않고, 누가 실수를 감당해야 할지도 알 수 없다.
국제법 전문가들 역시 우려를 나타냈지만, 그러한 논의는 여전히 ‘논의’ 단계에 머물러 있다.
하지만 분명한 건,
이전에는 ‘기술이 전쟁을 바꿨다’고 말했지만, 이제는 ‘전쟁이 기술을 바꾸고 있다’는 느낌을 받는다는 점이다.
인공지능이 전장에서 인간의 판단을 따르는 게 아니라, 오히려 인간이 인공지능의 판단을 좇고 있는 것 같지 않은가.
그렇다면 우리는 과연 어느 시점에서 ‘인공지능이 전쟁을 결정해야 할 권한’을 부여한 걸까?
아니, 그보다 먼저 묻혀야 할 질문은 —
“이제 우리가 선택하는 게 아니라, 인공지능이 우리가 선택할 수 있게 만들어주고 있을 가능성”은 얼마나 클까?




