SMATh SMATh

AI 작전 참모, 이제 전장의 두뇌다

Hero

300초. 전장에서 사람의 판단이 필요했던 순간은 이제 거의 사라졌다.

2022년 러시아-우크라이나 전쟁은 '인공지능 전쟁의 시험대'라고 불렸다. 지금은 더 이상 ‘시험’이 아니다.
실제로 작전을 수행하는 주체가 누구인지보다, ‘결정권’을 누가 행사하는지가 중요한 시점이라는 것을 깨달았어야 했는데…
이젠 그것도 뒤바뀌었다.

작전 참모가 인간이 아님은 사실이다.
아니, 인간은 여전히 통제센터에 있지만, 그 안으로 유입되는 모든 정보를 처리하고, 전술 조건을 무조건적으로 도출하는 것은 이미 인공지능이다.
특히 대규모 언어 모델(Large Language Model), 즉 우리에게 익숙한 챗지피티처럼 생긴 존재들이 전장의 ‘두뇌’ 역할을 하기 시작했다.

오픈에이아이가 미국 국방부와 기밀 네트워크용 인공지능 모델 배포 계약을 체결했다는 건,
‘내부 정보’를 다룰 수 있도록 특별히 설정된 인공지능이 실제 군사 시스템과 연동됐음을 의미한다.
이는 단순한 디지털 지원이 아니라, 작전 결정에 직접적인 영향을 미친다는 뜻이다.
“이란 공격에 인공지능을 작전 참모로 사용?” — 파이낸셜뉴스의 제목이 왜 이렇게 강렬하게 다가왔는지 이해할 수 있을 것이다.

그리고 한국에서도 K-AI칩이 시장 안착을 위한 실험 장소로 활용 중이다.
이것은 단순한 반도체 경쟁이 아니라, 군사용 인공지능 컴퓨팅 성능의 기반이 될 가능성이 있기 때문이다.
지금은 민간용이라고 하지만, 어디선가 ‘혹시 이 칩이 전투 드론의 뇌가 되었을까?’라는 생각이 계속 머릿속을 스쳐간다.

문제는, 이 모든 것이 너무 빠르게 진행되고 있다는 점이다.
인공지능이 잘못 판단하면, 진짜로 사람들이 죽는다.
윤리적 책임 소재도 명확치 않고, 누가 실수를 감당해야 할지도 알 수 없다.
국제법 전문가들 역시 우려를 나타냈지만, 그러한 논의는 여전히 ‘논의’ 단계에 머물러 있다.

하지만 분명한 건,
이전에는 ‘기술이 전쟁을 바꿨다’고 말했지만, 이제는 ‘전쟁이 기술을 바꾸고 있다’는 느낌을 받는다는 점이다.
인공지능이 전장에서 인간의 판단을 따르는 게 아니라, 오히려 인간이 인공지능의 판단을 좇고 있는 것 같지 않은가.

그렇다면 우리는 과연 어느 시점에서 ‘인공지능이 전쟁을 결정해야 할 권한’을 부여한 걸까?
아니, 그보다 먼저 묻혀야 할 질문은 —
“이제 우리가 선택하는 게 아니라, 인공지능이 우리가 선택할 수 있게 만들어주고 있을 가능성”은 얼마나 클까?

🎧이 글의 오디오 버전
핵심 수치
핵심 수치
핵심 수치
핵심 수치
데이터 인포그래픽
데이터 인포그래픽
Read More
SMATh SMATh

AI가 인간보다 70밀리초 빠르게 공격을 결정한다

Hero

전 세계 최강의 군사 AI가 타겟을 발견하고 명령을 내릴 때까지 걸리는 시간. 사람이 반응하는 데 필요한 시간은 약 200밀리초인데, AI는 그것보다 70밀리초 빨라. 인간이 뭘 하기 전에, 이미 결정이 났다는 거다.

그리고 이게 그냥 ‘빠르다’는 수준이 아니란 게 핵심이야.
AI는 인간의 사고 속도보다 빠르게 특정 목표물을 공격할지를 추천할 수 있다.
정말로? 그러니까 우리 머릿속에서 ‘저건 탱크다’, ‘이쪽이 위험하다’고 생각할 동안, AI는 이미 발사를 준비하고 있을지도 몰라.

이게 어디까지 현실이냐면…
2026년 월드베이스볼클래식(WBC) 개막을 계기로 모바일 게임 ' 라이벌'에서 AI 기반 이벤트가 진행된 바 있었다.
애초에 게임이니까 실제로 전쟁이 벌어진 건 아니지만, 그 플랫폼에서 AI가 플레이어들의 행동을 분석하고, 실시간으로 상대팀의 ‘타겟’을 선정하며, 전략을 조정하는 모습이 실제로 있었어.
여기서 핵심은, 게임이라는 ‘가상 공간’에서조차 인간보다 빠른 판단이 요구되고 있다는 거지.

실제 전장에서는 더 심각해.
미국과 이란 사이의 정치적 갈등 상황에서, 전쟁 관련 논의가 정권 교체 문제와 연결되어 있으며, AI 기반 분석 도구가 전략적 의사결정에 영향을 미칠 가능성이 제기되었다.
‘이번 결정이 다음 전쟁으로 이어질까?’라는 질문에 답을 내리려면, 인간이 할 수 있는 건 너무 느리다고.
AI는 1초에 수십 가지 시나리오를 계산하고, ‘이번 조치가 위험도 87퍼센트 이상 증가시킬 수 있다’고 말할 수 있어.

그런데 진짜 문제는 여기서부터야.
“결정은 인간이 내렸어야 한다”는 국제법 전문가들이 걱정하는 건, 오류가 생겼을 때 누가 책임질지 알 수 없기 때문이야.
AI가 잘못 판단해 민간인이 죽었다면, 누구에게 책임이 있을까?
컴퓨터가 버튼을 누른 게 아니라, 사람이 ‘승인’을 눌렀다고 해도, 그 결정이 얼마나 인간의 의지였는지는 이제 모를 일이 되었잖아.

지금 우리는 전장에서의 ‘속도’를 놓고 경쟁 중이야.
하지만 속도보다 더 중요한 건, ‘왜’ 빠르게 결정해야 하는지에 대한 질문이야.
AI가 인간보다 빠르다면, 우리가 정말 그 속도를 필요로 하는 걸까?
아니면, 그냥 ‘빠르면 좋겠어요’라는 욕망에 갇혀 있는 걸까?

🎧이 글의 오디오 버전
핵심 수치
핵심 수치
핵심 수치
핵심 수치
데이터 인포그래픽
데이터 인포그래픽
Read More
SMATh SMATh

미 국방부, 앤트로픽을 위험 기업으로 지정했다

Hero

3월 5일, 미국 국방부가 앤트로픽을 ‘공급망 위험 기업’으로 지정했다.

이건 그냥 경고가 아니다. 법적으로 국방계약 참여자는 앤트로픽의 AI 모델 ‘클로드’를 쓰지 않겠다는 인증서를 내야 한다.

뭐, 일반인이 들어도 느껴질 정도로 뻔한 건데—국방부는 자기들끼리 먹고 사는 게 아니라, 민간 기술에 너무 의존하는 걸 걱정하고 있다.

근데 진짜 신기한 건, 이걸 두고 구글과 아마존은 “국방 관련 업무를 제외한 분야에서는 앤트로픽의 인공지능 기술 제공을 유지하겠다”고 발표했다는 거다.

아니, 진짜냐? 국방부는 공급망 위험을 이유로 앤트로픽을 제재했으며, 이를 통해 기술 독립을 강화하려는 의도를 가지고 있다.

다리오 아모데이, 앤트로픽 CEO가 말했던 거 기억나? “미국 국방부가 무제한 접근권을 요구했으나 거부했다.”

이 말은 즉슨, 국방부는 ‘내가 쓰고 싶어’라고 데리고 가려 했고, 앤트로픽은 ‘그건 안 된다’고 딱 잘라 거절했다.

이걸 보면 앤트로픽이 정말 ‘민간 중심’이라고 할 수밖에 없음. 군사 용도를 배제한다고 해서, 세상이 끝나는 것도 아니고, 결국 기술은 사람에게 돌아가는 거니까.

그런데 이상한 건, 구글과 오픈AI 개발자들이 ‘전쟁부’에 기술을 제공하지 않겠다는 공조를 맺었다는 사실이 알려졌다.

이건 이제 단순한 규제 문제가 아니라, 기술이 어디로 향해야 하는지에 대한 윤리적 논쟁이 되었어.

“우리는 죽이는 기술은 만들지 않겠다”라는 선언.

그리고 이걸로 앤트로픽이 국방부에서 떨어졌지만, 구글은 여전히 클로드를 풀어줄 준비가 됐다는 거.

혹시 이걸로 인해, 기술 생태계의 ‘진짜’ 중심이 다시 움직이고 있을까?

국방부는 뭐가 두려웠을까? 기술이 완전히 집중되는 것? 아니면 인간이 아닌 존재가 의사결정을 하게 될까?

아니면, 우리가 지금 보는 ‘AI’라는 게, 진짜로 우리를 위해 쓰이고 있다고 믿고 싶어서일까?

이제 누구도 앤트로픽의 클로드가 어디까지 쓰일지 알 수 없다.

그리고 아마도, 그것이 가장 중요한 건 아닐까?

🎧이 글의 오디오 버전
핵심 수치
핵심 수치
핵심 수치
핵심 수치
데이터 인포그래픽
데이터 인포그래픽
Read More