AI 오류가 학교를 터뜨렸다

Hero

150명 이상 죽었다.
아이들이다.
2026년 3월 1일, 이란 미나브의 여자학교.
폭탄이 떨어졌고, 건물은 무너졌다.
초기 보고는 ‘한 건물’이라고 했는데, 지금은 ‘몇 개의 건물’이 모두 훼손됐다고 나오고 있다.
이건 그냥 실수가 아니다.
무엇 때문일까.
왜 이런 일이 일어났는지.

미국 국방부 조사관들이 말한다.
“AI가 잘못된 정보를 줬다.”
‘잘못된 정보’라니.
그 말을 듣고서 나는 먼저 웃음을 참았다.
뭐, 당연한 거 아니냐고.
AI가 실수하면 사람도 실수하는데, 왜 이렇게 큰 문제가 되는 걸까.
근데 또 생각해보니까…
이건 사람이 실수한 게 아니라, 알고리즘이 실수한 거잖아.
그 알고리즘이 ‘타겟’이라 부르는 것이, 실제로는 여자학교였다는 거.
정말 웃기지도 않고, 화도 나지 않고, 다만 머릿속이 텅 비는 기분이다.

아이들을 향한 폭격.
그게 ‘AI가 판단한 적대 행위’였다.
사실 그건 전쟁이 아니라, 영화 속 장면 같아.
어떻게 이런 게 현실이 될 수 있을까.
이 이미 위성 영상 분석 결과는 더 광범위한 피해를 보여줬고,
알자지라 보고서는 이스라엘도 미국도 관련 없었다고 했지만,
미국 조사관들은 “작전은 미국이 수행했다”고 확실히 말하고 있다.
누가 이뤄냈는가는 뒷얘기고,
핵심은 ‘왜’였다.

AI가 잘못된 정보를 줬다고.
어쩌면 그 정보는 누군가가 입력했을 수도 있고,
또는 알고리즘이 스스로 ‘학습’한 게 잘못된 경로였을 수도 있겠지.
어쨌든, 그 판단이 실행되었고,
결과는 150명의 생명과, 수십 개의 건물, 그리고 한 세대의 기억이 산산조각나는 것이다.

이쯤에서 마음이 뒤흔들린다.
내가 쓰는 AI 기술은 내가 만들고, 내가 테스트하고, 내가 신뢰한다고 말했던 거다.
그런데 이건 내 손끝에서 벗어난 상태에서,
어떤 ‘지능’이, 무조건적으로 사람들의 생존을 판단했고,
결과를 내놓았고,
그 결과를 받는 건 결국 우리가 살고 있는 세상이었다.

그럼 이제 물어봐.
AI가 실수한 건 알았으니까.
그렇다면 다음엔 누구 책임인가?
이것을 막을 방법은 어디에 있지?
사람이 감독한다는 게, 정말로 효과적인가?
아니면 이미 우리는 ‘자동화된 전쟁’이라는 데를 넘어섰고,
이젠 ‘AI가 판단한 죽음’이 새로운 일반화가 된 건 아닐까?

🎧이 글의 오디오 버전
핵심 수치
핵심 수치
핵심 수치
핵심 수치
데이터 인포그래픽
데이터 인포그래픽
Previous
Previous

5G 기지국에서 AI가 돌아간다, AI-RAN 시대

Next
Next

부산신항에 1140억 투입, AI 항만 시대 열렸다