“이제 모든 게 가짜처럼 느껴진다”…샘 올트먼, AI 확산 ‘인터넷 진실성 위기’ 경고
현지시각 14일, 미국(USA) 오픈AI의 최고경영자 샘 올트먼(Sam Altman)이 인공지능(AI) 확산에 따른 인터넷 신뢰성 위기에 공개적으로 우려를 표명했다. 그는 소셜미디어 플랫폼 X(구 트위터)를 통해 “이제는 모든 게 가짜 혹은 봇처럼 느껴진다”고 밝히며, 온라인 공간에서 인간과 AI의 구분이 모호해지고 있다고 지적했다. 이번 소신 발언은 AI가 필연적으로 촉진하는 온라인 커뮤니케이션 왜곡과 신뢰 문제를 국제사회에 재차 부각시키고 있다.
올트먼은 경쟁사 앤트로픽(Anthropic)의 AI 코딩 도우미 ‘클로드 코드(Claude Code)’ 관련 게시글을 예로 들며, 실제 성장세를 인지하고 있었음에도 자연스레 ‘조작된 홍보’로 느껴졌다고 밝혔다. 그는 “실제 사람들이 AI 언어모델 특유의 말투와 문체를 점점 더 흡수하고 있다”며, 소셜 플랫폼이 참여를 극대화하는 알고리즘 구조와 자동화 계정이 인터넷 전체의 ‘인위적’ 환경을 부추기고 있음을 지적했다.

이 같은 발언이 주목을 받는 것은, AI 보급을 직접 이끈 올트먼 자신이 ‘가짜화’에 대한 위기감을 역설적으로 드러냈기 때문이다. 온라인 커뮤니티 한편에서는 “AI 확산의 상징적 인물이 이제 와서 인터넷 진실성 훼손을 경계하는 건 자기모순”이라는 비판도 제기되고 있다. 반면, 그의 발언이 현실적 위험을 제기하며 인터넷 신뢰성 논의를 제도적 차원으로 이끌고 있다는 긍정적 평가도 나온다.
국제 IT 전문 매체 퓨쳐리즘(Futurism) 등은 올트먼의 문제 제기가 온라인 생태계의 신뢰 위기와 직결된다고 진단했다. 실제 최근 유럽연합(EU), 일본(Japan), 미국 정부 등은 AI 생성 정보의 투명성 강화와 인터넷 ‘진실성’ 회복을 위한 법·제도 논의를 시작했다. 인터넷 신뢰도 저하가 장기간 방치될 경우, 글로벌 정책적 대응은 더욱 강화될 전망이다.
전문가들은 AI 모델과 봇 기반 자동화 계정 확산이 온라인 상호작용의 불투명성을 키울 것으로 내다보고 있다. 성장 가도를 달리는 AI 산업에 제동을 걸기 위해서는 데이터 검증, 이용자 실명제, 알고리즘 투명성 확보 등 여러 장치가 병행돼야 한다는 요구도 확산되고 있다. 반대로 이번 논란을 계기로 플랫폼 사업자와 정책기관의 책임 의식 강화, 검증 시스템 확대가 논의된다면 인간적 소통과 기계적 표현 간 균형이 회복될 수 있다는 전망도 제시된다.
AI가 촉발하는 인터넷 ‘가짜화’ 논쟁은 기술 혁신의 새로운 이면과 디지털 신뢰의 중요성을 드러내고 있다. 전문가들은 앞으로도 ‘인간과 AI의 경계’에 대한 논쟁과 제도적 대응 논의가 국제사회에서 지속될 것으로 보고 있다.