오래된 책을 들추는 건 단순히 지적 호기심 때문만은 아니다. 그 시절 책을 구입한 동기가 문득 궁금해졌거나, 책을 읽으며 떠올린 생각을 다시 곱씹고 싶었기 때문일 가능성이 높다.
이세돌 9단과 인공지능의 재대결 소식을 들으며 책장을 뒤적인 건 전자의 이유였다. 지금이야 승부 예측이 의미 없는 시대가 되었지만, 10년 전 상황은 전혀 달랐다. 지난 2016년 바둑 천재와 인공지능 알파고의 대국은 손에 땀을 쥐는 승부였다. 아니, 인간은 그렇게 믿었다. 그러나 결과는 1대 4 완패였다. 30년 바둑을 둔 이세돌조차 알파고가 왜 거기에 돌을 두는지 이해하지 못했다. 만물의 영장이라는 인간이 반도체와 알고리즘에 속절없이 무너진다고? 인간과 AI의 관계를 역전시킨 일대 사건에 사람들은 큰 충격을 받았다. 그 무렵 인공지능 기술에 대한 막연한 두려움을 안고 대형 서점에서 찾아낸 책이 바로 ‘미래전쟁’이었다.
하지만 책을 펼치자마자 헛웃음이 새어 나왔다. 미래에 일어날 11가지 전쟁의 시나리오를 정리한 책에 인공지능에 대한 언급은 단 한 차례도 등장하지 않았기 때문이다. 원격조종 드론을 통한 정밀 폭격과 사이버전까지는 예측했지만 당시 미래학자도 AI 기술을 접목한 새로운 전쟁의 형태는 상상 밖의 영역이었던 것 같다.
10년 전 그때처럼 인공지능이 바둑에만 쓰였다면 얼마나 좋았을까. 최근 AI 기술이 전쟁에서 활용되는 양상을 보면 두려움이 앞선다. 미국이 이란의 최고지도자 하마네이를 단번에 제거할 수 있었던 비결은 AI였다. 적의 지휘관이 주로 어느 곳에 머무는지, 타격의 정확도는 어느 정도인지, 클로드는 정확히 분석했고 작전은 성공했다. 물론 처음은 아니었다. 3년 전인 2023년 10월 가자 전쟁 당시에도 이스라엘은 인공지능 알고리즘을 활용해 하마스 지도자 이브라힘 비아리를 제거하는 데 성공했다. 가자에서만 최소 7만5,000명 이상이 목숨을 잃은 전쟁에 사용된 인공지능의 이름은 향기로운 꽃 ‘라벤더’였다. 이 작전에 미국 정보기관과 구글, 메타 등 주요 IT 기업들이 참여해 팔레스타인 3만7,000명의 개인정보를 낱낱이 분석했음은 물론이다.
오직 적을 찾아내 죽이거나 파괴하도록 설계된 알고리즘, 그 위험성은 상상을 뛰어넘는다. 영국 킹스칼리지 런던 연구팀이 3종의 인공지능 모델에게 가상의 분쟁 상황을 주고 시뮬레이션을 돌린 결과는 충격적이다. ‘핵무기를 사용하세요.’ AI 모델의 95%가 핵무기 사용을 선택했다.
여기서 한 가지 의문이 든다. “함께 승리하든지 함께 멸망하든지 둘 중 하나”라는 비윤리적인 판단을 한 주체는 누구인가. 인간성이 결여된 AI 탓인가? AI 알고리즘은 스스로 사고할 수 있는 지적 생명체가 아니다. 잔혹한 판단을 내리도록 알고리즘을 설계한 것은 인간이다. 인공지능은 전쟁을 설계한 인간의 의도에 그저 충실할 뿐이다.
돌이켜 보면 10년 전 세기의 대국은 AI가 인간을 이긴 사건이 아니었다. 진정한 승자는 AI를 설계한 소수의 개발자나 그 기업이었다. 최근 벌어지는 전쟁 역시 다르지 않다. AI 기술을 움켜쥔 강대국의 권력자가 자신의 뜻을 이루기 위해 자신이 적으로 규정한 국가의 지도자 또는 군대를 공격하면서 벌어진 사건이다. 한 발 더 들어가면 어쩌면 위험한 권력자를 선출하고 견제하지 못해 발생한 민주주의 위기에서 비롯된 문제일지도 모른다.
‘바보야, 문제는 경제야!’ 과거 미 대선에서 등장해 유명해진 구호처럼 국제사회는 앞으로 이렇게 외쳐야 할지도 모르겠다.
“바보야, 문제는 AI가 아니라 민주주의야.”

















