“AI 판단 근거 밝혀낸다”…이수인, 설명가능 AI로 의료혁신 주도
AI가 내린 결정의 근거를 설명하는 기술, 즉 설명가능 AI(XAI)가 보건의료 산업 패러다임을 혁신하고 있다. 워싱턴대학교 이수인 교수가 연구·개발한 XAI는 진단의 신뢰성 문제를 근본에서 다루며, 특히 사람 생명과 직결된 의료 분야에서 파급력이 주목된다. 업계와 실무 의료진은 간호사·의사 대신 AI 진단 도입 시 '판단의 이유'를 투명하게 설명하는 XAI가 필수 경쟁력임을 인식하고 있다.
이수인 교수는 최신 AI 알고리즘의 복잡성으로 인해 전문가조차 결과 도출 로직을 파악하기 어려운 ‘블랙박스’ 문제를 해결하는 데 몰두해왔다. 실제로 수술 중 환자의 저산소혈증 등 예측 시스템 개발에 XAI를 접목, 환자 정보 수십여 가지를 분석해 5분 뒤 위험도를 실시간으로 제시한다. 기존 의료진의 경험·판단에 의존하던 방식과 달리, AI 진단의 논리와 주요 영향인자를 정량적 데이터로 제공한다는 점이 차별점이다. 산소 공급량·벤틸레이터 설정 등 즉각적 임상 대응이 가능한 요소까지 명확하게 제시돼 의료진의 실시간 조치에 실질적 도움을 준다는 평가다.

특히 XAI의 대표 사례로 꼽히는 샤플리 가산 설명(SHAP) 프레임워크는 입력 변수별 AI 결정 기여도를 수치로 분석한다. 예를 들어 건강검진 지표 800여개를 활용해 예측하는 생물학적 나이 분석에 적용할 경우, 개인별 노화 위험요소(흡연, 혈압, 유전자 등)를 일목요연하게 보여줌으로써 맞춤 건강관리 전략 수립까지 연결된다.
XAI는 AI 모델 오작동 또는 진단 오류 추적에도 활용된다. 코로나19 팬데믹 당시 X-레이 진단 AI의 해석력 한계, 시중 피부암 진단 앱 오진 사례가 이 대표적이다. 이수인 교수 연구팀은 생성형 AI를 결합한 최신 XAI 기법을 도입해, 실제 피부 사진을 미묘하게 변형시키며 AI의 판단 경계를 시각적으로 추적하는 방법을 개발했다. 결과적으로 기존 SHAP 등 단일 방식으로 한계가 있던 ‘AI가 왜 오진했는가’의 문제를 해결했다는 점에서 주목받는다.
한편 글로벌 의료AI 시장에서는 미국, 유럽 등 주도권 경쟁이 격화되는 가운데, 국내 연구진이 윤리성과 투명성을 강화한 XAI로 차별화에 나서고 있다. 아직 FDA 등 보건 규제기관은 AI 진단의 설명가능성을 규제·가이드라인에 반영하진 않았으나, 실제 임상 적용 단계에서 투명성 요구가 높아지는 추세다.
이수인 교수는 “의료, 바이오뿐만 아니라 다양한 분야에 XAI와 생성형 AI를 확장해, 앞으로 약이 없는 난치병의 약물 개발까지 도전하겠다”는 포부를 밝혔다. 전문가들은 XAI 기술 상용화가 의료AI 신뢰성과 안전성 확보의 전환점이 될 것이라 보고 있다. 산업계는 이번 기술이 실제 시장에 안착할 수 있을지 주시하고 있다.