“AI 안전·신뢰가 시장 열쇠”…정부, 기술영향평가서 발간
인공지능(AI) 기술이 일상과 산업 전반에 깊숙이 스며들면서 안전성과 신뢰성 확보가 IT·바이오 산업의 핵심 과제로 부상하고 있다. 과학기술정보통신부가 23일 공개한 2024년 기술영향평가 결과에 따르면, AI의 사회적 파급력이 확대됨에 따라 인간 신체 및 의식과 밀접히 연결된 휴머노이드, 브레인-컴퓨터 인터페이스(BCI), 헬스케어 AI 분야에서 기술의 정확성, 일관성뿐 아니라 책임성과 예측 가능성, 윤리적 안전까지 포함한 광범위한 ‘신뢰 AI’ 개념이 필요하다는 진단이 나왔다. 업계와 정책 당국은 이번 발표를 ‘AI가 실생활로 들어오는 전환점’이자, 기술윤리 경쟁의 분기점으로 평가한다.
과기정통부가 발간한 ‘AI와 함께 살아갈 세상, 불안과 희망’ 기술영향평가서는 휴머노이드, BCI, 헬스케어 등 고위험 IT·바이오 융합 기술에서 나타난 다양한 사회·윤리적 이슈와 과제들을 심층 분석했다. 구체적으로, 휴머노이드 분야에서는 로봇 학습 오류와 오작동, 센싱 기술로 인한 개인정보 침해, 로봇과 인간 간 의사소통 오류 등이 주요 문제로 확인됐다. BCI와 브레인 AI 영역에서는 뇌 신호 해독기술 발전이 의료 및 재활 분야의 혁신을 열 것으로 평가되는 한편, 군사적 전용, 해킹 등 보안 취약성과 뇌 자극 기술이 초래할 수 있는 새로운 중독 위험 등 윤리적 논란도 부상했다. 헬스케어 AI는 빅데이터 기반 의료 의사결정에서의 책임 소재, 민감 정보의 상업화, 건강 데이터 편향 문제가 제기됐다. 특히 이번 기술영향평가는 기존 단순 기술 안전성에서 한 걸음 더 나아가 준법·윤리·책임성 등을 포괄하는 ‘신뢰 가능한 AI’를 정책 과제로 내세운 점이 눈길을 끈다.

각 분야별 대표적 위험요소로는 개인정보 유출 및 관리 취약, AI 의사결정 오류에 대한 규명과 책임 소재 불명확, 기술로 인한 일자리 전환과 사회구조 변화가 지목됐다. 이와 관련해 “휴머노이드나 의료 AI가 사회 전반에 뿌리 내리기 위해서는 다차원적 안전장치와 사회적 합의 기반이 필수적”이라는 전문가 의견도 나왔다.
기술영향평가는 ▲미래기술 안전성 기본법 제정 ▲윤리안전 가이드라인 마련 ▲민감 정보 기반 기술의 독립적 거버넌스 구축 ▲미래 R&D를 통한 안전기술 강화 등 핵심 제도 과제를 제안했다. 실제 미국·유럽 등 글로벌 시장에서는 이미 AI의 투명성과 책임성, 데이터 보호를 둘러싼 규제 경쟁이 촉발됐으며, 유럽연합(EU)이 AI Act(인공지능 법률)로 고위험 AI 시스템에 대한 엄격한 기준을 정립한 바 있다.
국내에서는 과기정통부가 올해 기술영향평가 과정을 전문가와 시민이 공동 참여하는 공개 토론·이슈 발굴 방식으로 확대했으며, 사회적 수용성과 기술혁신이 조화될 수 있도록 정책 역량을 집중하고 있다. 임요업 과학기술혁신조정관은 “AI의 안전성과 신뢰성은 기술 수용성과 사회 신뢰의 기반”이라며 “전문가와 시민이 함께 미래기술의 가이드라인을 설계해나가는 노력이 핵심”이라고 강조했다. 업계는 이번 평가가 실제 시장에 반영돼 법제화와 산업 생태계 조성으로 이어질 수 있을지 주목하고 있다.