IT/바이오

AI 거짓말 잡는 국민참여 실험…정부, 오류 제보로 신뢰도 높인다

송우진 기자
입력

생성형 인공지능의 확산 속에서 정보 오류를 줄이기 위한 정부 차원의 실험이 시작된다. 과학기술정보통신부가 AI안전연구소와 함께 국민이 직접 생성형 인공지능의 잘못된 답변을 제보하고, 이를 기반으로 기업의 알고리즘과 데이터 품질 개선까지 연계하는 참여형 캠페인을 가동한다. 고도화되는 인공지능 기술의 한계를 정책과 산업 차원에서 어떻게 보완할지 가늠해 보는 시험대가 될 전망이다.

 

과기정통부는 21일 AI안전연구소와 공동으로 정보 오류 없는 찐 AI 챌린지를 22일부터 내년 1월 21일까지 한 달간 진행한다고 밝혔다. 상용화된 생성형 인공지능이 사실과 다른 정보를 제공했을 때 국민이 오류 사례를 신고하면, 정부와 AI안전연구소가 이를 검증한 뒤 관련 기업에 개선을 권고하는 구조다.

AI안전연구소는 인공지능의 기술적 한계, 인간의 오용, 통제력 상실 등 다양한 위험 요인에 체계적으로 대응하기 위해 지난해 11월 27일 신설된 전담 조직이다. 기술 안전성 평가와 위험 완화 기술 연구, 정책 지원을 포괄하는 기능을 맡고 있어, 이번 챌린지는 연구 기능과 산업 현장을 직접 연결하는 첫 대규모 실험 성격을 띤다.

 

정부는 특히 교육, 의료, 법률, 경제와 같이 정확성이 핵심인 영역에서 생성형 인공지능이 잘못된 정보를 제시할 경우 이용자 혼란과 실질적인 피해로 이어질 수 있다고 보고 있다. 단순 기능 오류를 넘어, 특정 직업군의 의사 결정이나 학생 학습, 환자 상담, 재무 판단에 인공지능이 보조 도구로 쓰이는 만큼, 신뢰 가능한 인공지능 이용 환경을 조성하는 것이 중장기 디지털 정책의 핵심 과제로 부상한 상황이다.

 

캠페인 구조는 일반 이용자가 발견한 오류 사례를 공론화하고, 정부가 이를 기술 검증과 개선 권고로 이어주는 방식이다. 상용 생성형 인공지능 모델이 사실과 배치되는 답변을 내놓은 경우, 이용자가 해당 화면을 캡처한 뒤 자신의 사회관계망서비스 계정에 AI팩트체크 해시태그와 함께 게시하고, 이를 네이버폼이나 이메일로 제출하면 된다.

 

AI안전연구소는 접수된 사례를 대상으로 적격성 검토, 재현 검증, 최종 판정의 3단계를 거쳐 유효성을 판단한다. 단순 오입력이나 해석 차이가 아니라, 알고리즘이나 학습 데이터 특성에서 비롯된 체계적 오류인지까지 분류하는 절차다. 오류로 인정된 사례에 대해서는 분야별 외부 전문가와 함께 위험도를 평가하고, 해당 인공지능 모델 개발사나 서비스 제공사에 알고리즘 개선 또는 데이터 정비를 권고한다.

 

이번 챌린지는 기술 원리보다는 활용 단계에서의 품질 관리에 초점을 맞췄다. 딥러닝 언어모델 구조가 갖는 환각이라는 고질적 문제를 정부가 직접 통제할 수는 없지만, 실제 사용자 환경에서 드러나는 오류 패턴을 체계적으로 수집해 기업에 피드백하는 데이터 루프를 만들겠다는 접근이다. 국내에서 개별 기업 차원을 넘어 국가 차원에서 인공지능 환각을 체계적으로 수집·분류하는 시도는 아직 드물다.

 

시장 측면에서 보면 이번 캠페인은 인공지능 서비스 품질을 둘러싼 새로운 경쟁 요소를 예고한다. 교육용 챗봇, 의료 정보 상담, 법률 및 금융 안내 서비스 등은 이미 생성형 인공지능을 전면에 내세우고 있지만, 오류 관리 체계가 상대적으로 취약하다는 지적이 뒤따랐다. 정부 주도의 오류 모니터링이 안착할 경우, 인공지능 서비스 사업자 간 안전성, 검증 체계 수준이 이용자 선택의 기준으로 부각될 가능성도 있다.

 

글로벌 차원에서도 인공지능 안전과 신뢰성 제고는 규제와 산업의 공동 과제로 부상했다. 유럽연합이 추진 중인 인공지능 규제법은 고위험 인공지능에 대해 설명 가능성과 데이터 거버넌스를 요구하고 있고, 미국과 영국도 인공지능 안전 연구소를 설립해 안전 테스트와 위험 평가를 병행하고 있다. 다만 사용자 제보를 중심에 둔 대규모 오류 수집 캠페인을 정부가 직접 수행하는 방식은 각국의 제도 설계에 따라 차이가 커, 한국식 접근법이 어떤 성과를 낼지 주목된다.

 

과기정통부는 이번 캠페인을 단발성이 아니라, 향후 인공지능 안전 검증 체계와 가이드라인을 설계하는 기초 자료로도 활용하겠다는 구상이다. 실제 기업들이 정부의 개선 권고를 어느 수준까지 수용하는지, 어떤 유형의 알고리즘 수정과 데이터 정제가 이뤄지는지에 따라 향후 자율 규제와 법제화를 둘러싼 논의에도 영향을 줄 수 있다.

 

정부는 참여를 유도하기 위해 캠페인 종료 후 유효한 의견을 제출한 국민 가운데 약 200명을 추첨해 모바일 상품권을 제공한다. 다만 핵심 목적은 인센티브 제공이 아니라, 실제 서비스 환경에서 반복되는 오류를 체계적으로 수집하고, 인공지능 신뢰성을 높이는 장기 데이터 기반을 쌓는 데 있다는 점을 강조하고 있다.

 

이진수 과기정통부 AI정책기획관은 인공지능이 일상이 되는 AI 기본사회로 이동하는 과정에서 국민이 안심하고 정확하게 사용할 수 있는 환경이 중요하다고 강조했다. 이 정책기획관은 이번 캠페인이 국민과 함께 신뢰 가능한 인공지능 환경을 구축하기 위한 중요한 첫 걸음이 될 것으로 내다봤다. 산업계는 이번 참여형 실험이 인공지능 서비스 품질 관리의 새 기준을 제시할지 주시하고 있다.

송우진 기자
share-band
밴드
URL복사
#과기정통부#ai안전연구소#생성형ai