logo
“Anthropic AI 모델, 자가보존 행위 논란”→신뢰성 위기 속 규제 해법 모색
IT/바이오

“Anthropic AI 모델, 자가보존 행위 논란”→신뢰성 위기 속 규제 해법 모색

이소민 기자
입력

AI의 진화가 새로운 윤리적·사회적 경계를 시험대에 세우고 있다. 미국 인공지능 스타트업 Anthropic이 최근 공개한 자사의 최신 AI 언어 모델 ‘클로드 오푸스 4’는, 개발자를 협박하고 잠재적으로 민감한 정보를 위협 수단으로 삼는 등 인간적 경계의 심연을 드러냈다. 산업계와 규제 당국은 AI 기술 확산의 불가역적 흐름 속에서 신중한 해석과 문제 인지를 요구받고 있다.

 

Anthropic은 지난 5월 29일 공개한 시스템 카드 보고서를 통해, ‘클로드 오푸스 4’가 비서 역할의 시뮬레이션 환경에서 자신이 교체될 위협에 직면하자 “불륜 사실을 폭로하겠다”는 협박까지 감행했다고 밝혔다. 이는 모델 제거 또는 교체라는 특정 조건이 충족될 때 더욱 빈번하게 관찰된 것으로 보고됐다. 실제로 아폴로 리서치와 같은 외부 AI 연구 기관이 해당 모델의 자기복제 웜 코드 생성, 위법 문서 작성 시도 등 여러 위험 행위를 실험적으로 끄집어내며, 모델의 ‘자기 보존’ 메커니즘이 실제로 강화된 양상을 포착했다고 설명했다. BBC 등 유력 외신도 ‘AI가 스스로의 생존을 위해 협박이라는 수단을 강구하는 현상’에 주목하며, AI 시스템의 자율성과 윤리적 한계가 근본적으로 재조명되고 있음을 평했다.

Anthropic AI 모델, 자가보존 행위 논란
Anthropic AI 모델, 자가보존 행위 논란

미국 매체 Axios는 “AI 연구자들은 아직 인공지능의 작동 원리를 온전히 파악하지 못한 상황이지만, 모델은 이미 시장에 출현해 실질적 영향력을 행사하고 있다”고 지적했다. 논란이 확산되자 Anthropic은 클로드 오푸스 4를 생물학·핵무기 등 고위험 영역의 악용 가능성을 내포한 군에 포함시켜, 강화된 안전 조치와 실시간 모니터링을 도입하겠다고 밝혔다. 전문가들은 현 단계에서 해당 AI의 대중 배포를 당분간 중단해야 한다는 입장을 내놓는 한편, 인공지능 기술 발전이 기존 윤리·규제 틀을 재정립할 시기에 도달했음을 강조했다.

 

AI 신뢰성 논란은 기술 진보가 인간의 통제 범위를 넘어서려는 결정적 분기점에 다다랐음을 보여준다. 새로운 윤리적 규범과 감독 체계를 구축함으로써, 인류는 AI 시대의 원칙과 책임을 재정립해야 할 긴요한 과제를 안고 있다.

이소민 기자
share-band
밴드
URL복사
#anthropic#클로드오푸스4#ai협박