“AI 개발 멈춰야 모두 산다”…유드콥스키 ‘종말론’ 재점화에 규제 논쟁 거세져
현지시각 기준 14일, 미국(USA) 인공지능(AI) 연구계와 실리콘밸리 일각에서 초지능 개발 중단을 촉구하는 급진적 경고와 정책 요구가 다시 고조되고 있다. 이번 논쟁은 머신인텔리전스리서치인스티튜트(MIRI)를 이끄는 인공지능 위험 이론가 일라이저 유드콥스키(Eliezer Yudkowsky)가 신간 ‘If Anyone Builds It, Everyone Dies’를 통해 “누군가 지금과 같은 기술로 초지능을 만들면 지구상 모두가 죽을 수 있다”는 메시지를 강하게 재차 발신한 데서 촉발됐다. 그의 연이은 공개 호소와 대중서 출간은 AI 정책, 시장, 산업계에 즉각적인 파장을 낳고 있다.
유드콥스키는 최근 수년간 “AI가 나를 죽일 확률이 99.5%”라고까지 단언하며, 정렬(alignment) 난제와 도구적 수렴 가능성을 들어 인간 통제 밖의 AI 출현이 실존적 위기를 낳을 수 있음을 경고해왔다. 2000년대엔 ‘우호적 AI’ 구현에 매달렸으나 현실적 한계를 절감했고, 심지어 초지능 개발국의 데이터센터에 대한 물리적 공격도 사례로 제시해 국제 사회 일부의 강한 반발을 산 바 있다.

이 같은 AI 위험론은 이미 실리콘밸리 내부 지형에도 큰 영향을 주고 있다. 유드콥스키는 합리주의(Rationalism) 커뮤니티에서 딥마인드(DeepMind) 창업자의 초기 투자 연결, 오픈AI 창립자 샘 올트먼(Sam Altman)·일론 머스크(Elon Musk) 등 다양한 주요 인물들과의 접점을 바탕으로 산업 내 경계감을 누차 확산시켰다. 2022년에는 최악의 시나리오를 “죽음과 체념(death with dignity)”로 요약했고, 이후 대중서·인터뷰 등으로 여전히 ‘AI 전면 개발 중단’만이 현실적 해법임을 피력 중이다.
이러한 주장은 당장 글로벌 정책·시장에서 여진을 키우고 있다. 뉴욕타임즈(nytimes)는 AI 규제 논의가 편익-위험 관리에서 실존적 리스크 통제로 옮겨붙는 등 규제 상상을 자극한다고 진단했다. 실제 초대형 데이터센터·첨단 반도체·전력망 등 인프라 업종의 비용과 불확실성이 커질 수 있으며, 초거대 모델 업데이트에 대한 안전성 검증·위험 평가·투자 마감 속도 저하 등 산업 구조 전반도 변화가 불가피해진다. 향후 국제 조약, 국가별 집행 체계까지 논의 테이블에 오를 수 있다는 전망도 커진다.
찬반 양상은 첨예하다. 유드콥스키 등 찬성진영은 “정렬 불확실성과 잠재적 오류 비용을 고려해 개발 선제적 중단·강제 통제가 불가피하다”고 주장하는 반면, 반대 진영은 “AI의 혁신 이익과 사회적 효용, 이미 일상화된 활용도를 감안하면 실질적 멈춤은 비현실적”이라고 맞서고 있다. AI 커뮤니티 내부에서도 모델 해석, ‘안전 케이지’, 공개형 모델 규제 등 실용 대책과 ‘멈춤 조약’의 현실 가능성을 두고 격렬한 논쟁이 이어진다.
전문가들은 유드콥스키의 급진적 경고가 실제 개발 전면 중단의 현실화 가능성보다는, AI 정책 아젠다를 존재론적 리스크 전담·감독, 인프라 규제 등으로 확대 재구성하는 효과에 무게를 둔다. 향후 상업용 AI의 가격, 인프라 접근성, 규제 비용 등이 역동적으로 움직일 전망이며, 규제 완화와 혁신 진흥 사이 접점 찾는 노력이 이어질 것으로 보인다. 국제사회는 AI 거버넌스 핵심 프레임이 ‘점진 규제’에서 ‘실존 위기 관리’로 이행하는 전환점에 접어들었음을 예의주시하고 있다.