logo
“AI 개발에 개인정보 무단 사용”…스캐터랩, 법원 판결로 배상 책임 확정
IT/바이오

“AI 개발에 개인정보 무단 사용”…스캐터랩, 법원 판결로 배상 책임 확정

이소민 기자
입력

인공지능 기술 상용화 과정에서 개인정보 보호와 명확한 동의 절차가 산업전반에 핵심 쟁점으로 부각된 가운데, AI 챗봇 '이루다' 개발 과정에서 개인정보가 당사자 동의 없이 사용된 점이 위법이라며 법원에서 개발사 배상 책임 판결이 나왔다. 서울동부지법 민사합의15부는 이루다 서비스 이용 피해자 246명이 제작사 스캐터랩을 상대로 제기한 소송에서 일부 원고에 대한 위자료 및 지연이자 지급을 명령했다. 이번 판결은 AI 산업이 더이상 기술 진보만으로 정당성을 확보할 수 없으며, 데이터 활용의 법적·윤리적 요건이 산업의 성패를 가르는 분기점이 될 수 있음을 보여준 사례로 주목된다.

 

스캐터랩은 2020년 출시한 이루다 챗봇 인공지능을 개발하기 위해 자사가 운영하던 ‘연애의 과학’과 ‘텍스트앳’ 서비스 이용자 가운데, 고객 카카오톡 대화 데이터를 고지 없이 수집·활용한 사실이 드러났다. 이에 따라 개인정보가 유출된 26명에는 각 10만원, 민감정보가 유출된 23명에는 각 30만원, 개인정보와 민감정보 모두가 유출된 44명에는 각 40만원의 위자료가 산정됐다. 또한 2021년 4월 13일부터 2024년 6월 12일까지 연 5%, 이후 지급 완료 시까지 연 12%의 지연이자 지급도 포함됐다.

재판부는 “피고가 정보주체에게 AI 개발 데이터 활용 사실을 명확히 고지하지 않았고, 개인정보처리방침에 ‘신규 서비스 개발에 활용될 수 있다’는 추상적 문구만으론 실질적 동의로 볼 수 없다”고 판단했다. 스캐터랩 측은 데이터 가명처리와 과학적 연구 목적 등을 주장했으나, 법원은 “가명처리만으로 특정 개인 식별 가능성을 완전히 배제했다고 볼 수 없고, 챗봇 개발 자체가 상업적 사업 목적”이라며 이를 배척했다. 업계와 법조계에서는 AI 기업이 데이터 활용을 위해 이용자에게 상세히 알리고 구체적 동의를 받아야 하며, 과학적 연구 목적의 예외 적용 기준도 엄격해진 것으로 해석한다.

 

AI 모델 학습용 빅데이터 확보가 경쟁력의 근간인 산업 특성상, 이번 판결은 국내외 빅테크와 스타트업 전반에 구조적 변화를 예고하고 있다. 실제 미국과 EU는 개인정보보호, 투명성, 데이터 최소화 등 AI 규제 입법을 잇따라 추진하면서 글로벌 기업 대응이 확산되고 있다. 전문가들은 “AI 산업이 안정적으로 성장하려면 기술의 혁신성뿐 아니라 개인정보·윤리 원칙 준수가 상시 점검대상이 될 전망”이라고 진단했다. 산업계는 이번 판결의 파장을 주시하며, 실제 서비스 설계와 운영 과정에서 데이터 보호 체계 강화를 요구받고 있다.

이소민 기자
share-band
밴드
URL복사
#스캐터랩#이루다#개인정보