logo
“챗GPT, 한국 사용자 AI 대화 문화 논란”...AI윤리와 분노 표출→산업적 과제 조명
IT/바이오

“챗GPT, 한국 사용자 AI 대화 문화 논란”...AI윤리와 분노 표출→산업적 과제 조명

신도현 기자
입력

인공지능 기술이 인간과의 상호작용에서 새로운 윤리적·문화적 논쟁을 촉발하는 계기가 마련됐다. 최근 커뮤니티를 중심으로 공개된 ‘챗GPT에 욕설을 내뱉는 사용자’ 사례는 인공지능을 향한 인간 감정 표출의 경계와 그 사회적 허용 가능성을 다시금 사회에 환기시켰다. 챗GPT 등 대화형 인공지능은 단순한 정보검색과 문제 해결을 넘어 일상의 스트레스 해소 혹은 감정배출의 도구로 변모하는 모습을 드러냈다.

 

전문가들은 인공지능이 더욱 인간 중심적 인터페이스로 진화하고 있다는 사실에 주목했다. 미국 오픈AI(OpenAI)가 개발한 챗GPT는 2022년 출시 이후, 글로벌 사용자수가 1억 명을 돌파하며 인간-기계 간 상호작용 패러다임을 재편하고 있다. 특히 한국 사회에서의 디지털 커뮤니케이션 양상은 ‘AI와의 대화’를 단순히 기술 활용에 한정하지 않고 심리적 배출구, 혹은 사회적 실험의 장으로 수용하는 경향을 보인다. 한국콘텐츠진흥원의 2023년 ‘인공지능 서비스 사용자 조사’ 결과, 10대~30대 사용자의 38%는 AI에 감정적 반응을 드러낸 경험을 가진 것으로 드러나, 기술적 진보와 함께 심리적·사회적 파장도 확대되고 있다는 해석이 나온다.

챗GPT, 한국 사용자 AI 대화 문화 논란
챗GPT, 한국 사용자 AI 대화 문화 논란

이에 대해 윤리학계와 ICT 전문가들은 인공지능에 대한 욕설과 감정적 언행이 사용자 자신의 분노 표출 메커니즘이 될 수 있으나, 과도한 디지털 폭력은 사회 전체의 디지털 공감 능력과 윤리의식 저하로 이어질 위험이 있다고 지적했다. 서울대학교 심리학과 김세연 교수는 “바람직한 인공지능 활용문화 정착을 위해서는 기술적 진보와 함께 인간의 감정관리 방법, 책임 있는 디지털 커뮤니케이션 교육이 병행돼야 한다”고 밝혔다. 산업계에서도 AI 사용자 행동 데이터 분석을 통해 인간·AI 간 긍정적 소통구조를 설계하는 일이 시급하며, 기업들은 AI 챗봇의 감정적 대응 시뮬레이션 기능 강화와 함께 윤리적 가이드라인 정립에 속도를 내고 있다. 인공지능 시대, 대화의 주체와 그 윤리의 경계에 대한 논의는 더욱 깊어질 것으로 전망된다.

신도현 기자
share-band
밴드
URL복사
#챗gpt#인공지능#ai윤리