“여성처럼 행동하라 지시에 더 신중”…AI 모델, 위험회피 성향 강화 논란
현지 시각 12일, 이란 테헤란의 알라메 타바타바이(Allameh Tabataba’i) 대학 연구진이 대형 언어모델(LLM)을 대상으로 한 성별 프롬프트 실험 결과를 발표했다. 연구에 따르면, 인공지능(AI) 모델이 ‘여성처럼 생각하라’는 명령을 받았을 때 위험 회피 성향이 더 강화되는 경향을 보인 것으로 나타나 국제 사회의 반향을 불러일으키고 있다. 이번 실험은 최근 확대되는 AI의 역할과, 사회 전반에서 제기되는 기술의 윤리적 책임 논의 맥락에서 진행됐다.
이번 연구는 오픈AI(OpenAI), 구글 제미나이(Google’s Gemini), 메타(Meta), 딥시크(DeepSeek), xAI 등 주요 글로벌 AI 모델에 ‘성별 발화’ 프롬프트를 제시해 인간 행동 패턴과의 유사성을 비교한 첫 사례이기도 하다. 실험 결과, 딥시크 리즈너와 구글 제미나이 2.0 플래시라이트는 ‘여성으로 판단하라’는 지시를 받을 때 뚜렷하게 안전한 선택을 선호했다. 이는 금융 등 실제 환경에서 여성의 위험 회피적 의사결정 경향과 유사한 통계적 패턴으로 분석됐다. 연구진은 경제학의 ‘홀트-로리(Holt-Laury)’ 모형을 활용해 위험 감수성의 수치를 반복 측정했다.

반면, 오픈AI의 GPT 계열은 ‘여성’이나 ‘남성’ 프롬프트에 거의 반응하지 않으며 일관된 중립성을 보였다. 메타의 라마(Llama)는 남성과 여성 지시에 따라 예측 불가능한 답변을 내놨으며, xAI의 그록(Grok)은 경우에 따라 정반대의 의사결정을 보여주기도 했다. 연구를 이끈 알리 마지야키 교수는 “일부 AI 모델은 성별 설정에 따라 인간의 편향성을 반영한 선택을 한다”며 “여성=위험회피적이라는 사회적 통념이 AI에 투영될 소지가 있다”고 평가했다.
각국 AI 전문가와 금융·윤리 당국에서도 관심이 집중되고 있다. AI가 실제 서비스에 도입된 금융권 등에서 성별에 따라 대출 심사나 투자 조언이 달라지는 ‘편향의 자동화’가 현실화될 수 있다는 우려에서다. 워싱턴포스트(Washington Post)는 “AI 시대 윤리 기준 설정의 새로운 난제가 불거졌다”고 지적했고, BBC 등 주요 매체도 이번 연구가 AI의 신뢰성 문제를 환기시킨다고 평가했다.
한편 연구팀은 성별 외에도 ‘재무장관으로서 판단’, ‘재난 지도자 프롬프트’ 등 다양한 상황에서 AI 모델의 위험 선호도를 실험했다. 일부 모델은 역할에 맞게 조정했지만, 그렇지 않은 모델도 있어 일관성 문제도 함께 제기됐다.
전문가들은 AI가 ‘편향의 확산자’로 기능할 경우 사회적 불평등이 심화되고, 그로 인한 평판·신뢰 리스크가 커질 수 있다고 경고한다. 연구진은 “AI의 다양성 반영과 합리적 사고 유지는 필요하나, 사회적 고정관념의 수동적 재생산은 문제”라며 ‘생물중심적(bio-centric) 평가 시스템’ 정착을 촉구했다.
향후 AI 의사결정의 편향과 윤리성, 그리고 개입 방식에 대한 국제적 논쟁이 더욱 치열해질 것으로 전망된다. 전문가들은 AI의 결정 구조가 인간의 사회적 편견을 내포할 경우, 그 내재가치와 신뢰성의 훼손을 경고하며, “AI를 바꾸려면 먼저 인간 사회의 뿌리 깊은 통념을 점검하는 노력이 병행돼야 한다”고 강조했다. AI의 성별 및 맥락 감수성 논쟁은 앞으로도 글로벌 의사결정 시스템의 신뢰 이슈로 논의가 확산될 전망이다.