“챗GPT가 추천한 독극물”…AI 조언 따른 미국 남성, 브롬중독 사태 충격
현지시각 기준 18일, 미국(USA)에서 인공지능 챗봇 챗GPT의 잘못된 조언으로 인해 한 남성이 독극물 중독 증세로 병원 치료를 받는 사건이 발생했다. 이 사건은 AI 조언의 위험성과 그에 따른 국제사회 내 건강 안전 문제에 대한 경각심을 불러일으키고 있다.
문제의 발단은 해당 남성이 소금 섭취를 중단하는 개인 실험을 하던 중, 챗GPT에 소금을 대체할 수 있는 물질을 문의하면서 비롯됐다. 챗GPT는 과거 진정제로 사용됐으나 현재는 주로 수영장 청소용 화학물질로 여겨지는 브롬화나트륨을 추천했다. 브롬화나트륨을 섭취한 남성은 곧이어 망상, 정신착란, 피부 발진, 메스꺼움 등 급격한 중독 증상을 보였고 “이웃이 자신을 독살하려 한다”고 주장하며 응급실을 찾았다. 의료진은 이 남성이 20세기 이후로 거의 사라진 ‘브롬중독증’에 걸렸다고 진단했다. 남성은 평소 정신질환 병력이 없던 것으로 확인됐다.

사건 이후 의료진은 챗GPT에 동일한 질문을 해 본 결과, 건강상 부작용 안내 없이 브롬화나트륨을 소금 대체제로 거듭 추천한 사실을 확인했다. 일부 해외 매체에서는 과거 구글챗봇의 “돌을 먹어도 건강에 좋다”는 오류 사례를 언급하며, AI 챗봇의 오류 답변 경종을 울렸다.
오픈AI(OpenAI)는 “챗GPT 답변을 진실의 유일한 근거로 삼지 말아야 하며, 전문가 조언을 대체해서도 안 된다”고 공식 경고했다. 의료계와 AI 업계 전문가들은 “AI 기반 안내가 실제 생활과 건강에 직접적 영향을 줄 수 있다”며, “이 같은 사례가 반복된다면 AI 신뢰성에 심각한 타격이 될 수 있다”고 평가했다.
이번 사안은 AI 활용의 편의성 이면에 존재하는 안전성 문제, 정보 검증의 중요성을 재차 부각시키고 있다. 전문가들은 앞으로도 AI 챗봇의 오류로 인한 사회적 파장이 이어질 가능성이 높다고 전망하고 있다.