
에릭 슈미트 전 구글 CEO, Scale AI CEO 알렉산드르 왕, 인공지능 안전 센터 소장 댄 헨드릭스는 수요일 발표한 정책 논문에서 미국이 '초인공지능'이라고도 불리는 AI 시스템 개발을 위해 '맨해튼 프로젝트' 형식의 추진을 하지 말아야 한다고 주장했다.
이 논문인 '초인공지능 전략'은 미국이 초인공지능 AI 시스템을 독점적으로 통제하려는 공격적 시도가 중국의 치열한 반격을 유발할 수 있다고 주장하며, 사이버 공격 형태로 국제 관계를 불안정하게 만들 수 있다고 주장합니다.
'[A] 맨해튼 프로젝트 [AGI를 위한]는 라이벌이 지속적인 불안형태 혹은 전멸에 순응하길 바라는 것으로 시작해서 초인공지능에 대한 공격적 추구가 적대적 반대조치를 유발하고 긴장을 증폭시키며, 전략이 안정을 공고히 한다고 주장합니다.'라고 공동 저자들은 설명합니다.
미국 인공지능 산업의 세 가지 영향력 있는 형체들인 페이퍼는 미 상원 위원회가 지난 몇 달 동안 '맨해튼 프로젝트 형식의' 노력을 제안한 바 있고, 1940년대 미국 원자탄 프로그램을 본보기로 한 AGI 개발을 후원하는 것이 중국과의 경쟁을 하기 위한 최선의 방법이라는 생각에 도전합니다.
스미트, 왕, 헨드릭스의 의견에 따르면, 미국은 상호 보장된 멸망과 다르지 않은 AGI 교착 상태에 있다고 합니다. 세계적인 대국들이 핵무기 독점을 추구하지 않는 것과 마찬가지로, 슈미트와 동료 저자들은 미국이 극도로 강력한 AI 시스템을 지배하기로 서두르는 데 조심해야 한다고 주장합니다.
인공지능 시스템을 핵무기에 비유하는 것은 과장될 수 있지만, 세계 지도자들은 이미 인공지능을 최고의 군사적 장점으로 간주하고 있습니다. 이미 펜타곤은 AI가 군사의 킬 체인을 가속화하는 데 도움이 된다고 합니다.
스미트 등은 정부가 다른 나라들의 초인공지능 AI 프로젝트를 비활성화시키기 위해 사전에 행동함으로써 불안을 주는 AI 프로젝트를 방지해야한다고 하는 개념인 상호 보장된 AI 고장 (MAIM)을 소개합니다.
스미트, 왕 및 헨드릭스는 미국이 '초인공지능 경주에서 우승하기'보다는 다른 나라들이 초인공지능 AI를 만드는 것을 방해하는 방법을 개발하는 데 중점을 두어야 한다고 제안합니다. 저자들은 정부가 다른 국가가 제어하는 위협적 AI 프로젝트를 비활성화하는 사이버 공격의 아트 애널지를 확대하고 또한 적국이 고급 AI 칩과 오픈 소스 모델에 접근하는 것을 제한해야한다고 주장합니다.
저자들은 인공지능 정책계에서 벌어진 두 가지 반대 이념을 식별합니다. 재앙주의자들은 AI 개발으로 인한 재앙적 결과가 이미 예정된 것이라고 믿고 국가들이 AI 진행을 늦추기를 주장합니다. 반면에, 타조들은 국가들이 AI 개발을 가속화하고 사실상 모든 것이 잘 될 것을 바라는 것이라고 주장합니다.
논문은 AGI 개발에 대한 측정된 접근을 우선시하는 제 3의 방법을 제안합니다.
또한, 슈미트는 이전에 미국이 고급 AI 시스템 개발에서 중국과 치열하게 경쟁해야 한다고 강조한 바 있습니다. 슈미트가 몇 달 전에 아메리카의 AI 경주에서 DeepSeek가 전환점을 표시했다고 밝히며 이전에 미국 AI 개발을 추진해야 한다고 이야기했습니다.
트럼프 행정부는 미국의 AI 발전을 밀고 나가기로 굳게 마음 먹었습니다. 그러나, 저자들이 지적한 바와 같이, 미국의 AGI에 대한 결정은 고립되어 있지 않다고 주장합니다.
세계가 미국이 AI의 한계를 밀고 나가는 것을 지켜보는 동안, 슈미트와 동료 저자들은 방어적 접근 방식이 더 현명할 수도 있다고 제안합니다.