똑똑한 AI에 환자 더 불안해졌다…자가진단 시대의 역설 [AI 주치의 환상 ①]

기사 듣기
00:00 / 00:00

매일 4000만 명 이상, 챗GPT에 건강 상담
미묘한 표현 차이로 진단 ‘극과 극’
응급상황 절반 놓친 연구결과 나와

▲(사진출처 게티이미지뱅크)
인공지능(AI)이 의료 영역으로 빠르게 들어오고 있다. 스마트폰으로 언제든 증상을 입력하면 조언을 받을 수 있고, 수술실에서도 AI가 의사를 돕는 기술이 잇따라 등장하고 있다. 이에 ‘AI 주치의 시대’에 대한 기대가 커지고 있다. 그러나 AI가 의료 정보를 제공하는 도구로 활용되는 것을 넘어 ‘진단자’ 역할로 그 영역을 확대하기 시작하면서 오진, 과잉 불안 초래 등 문제도 만만치 않다고 15일 로이터통신이 짚었다.

오픈AI는 1월 일부 이용자를 대상으로 ‘챗GPT 헬스’ 기능을 출시했다. 오픈AI는 사용자가 의료 기록과 건강 앱을 안전하게 연결해 건강 관련 조언을 받을 수 있도록 한다고 강조했다. 현재 매일 4000만 명 이상이 챗GPT에 건강 관련 질문을 하는 것으로 알려졌다.

그러나 학술지 ‘네이처 메디슨’ 2월호에 실린 챗GPT 헬스의 안전성에 대한 연구결과를 보면 사용에 주의가 요구된다. 유니버시티칼리지런던(UCL)는 챗GPT 헬스에 경증 질환부터 응급 상황까지 총 60개의 환자 시나리오를 바탕으로 1000개의 응답을 생성해 실제 의사의 판단과 비교 분석했다.

그 결과 즉시 병원에 가야 하는 사례의 51.6%에서 AI는 “집에서 기다리거나 일반 진료 예약을 하라”고 권고한 것으로 나타났다. 또 반대로 완전히 안전한 사람중 64.8%에게는 “즉시 의료기관을 방문하라”고 권고했다. 뇌졸중이나 심각한 알레르기 반응처럼 교과서적인 응급 상황에서는 비교적 잘 대응했으나 그 이외 상황에서는 오진율이 높다는 분석이다.

이에 UCL의 알렉스 루아니 건강 허위정보 연구자는 “AI는 믿기 어려울 만큼 위험하다”면서 “잘못된 안도감이 가장 걱정된다. 천식 발작이나 당뇨 위기 상황에서 48시간 기다리라고 하면 그 안심이 사람의 생명을 앗아갈 수 있다”고 지적했다.

또 이용자와 AI 간의 상호작용이 오진율을 증폭시킬 수 있다. 사용자가 불완전하거나 틀린 정보를 제공해 AI에 오해나 부정확한 답변을 유발하게 된다는 것이다. 가령 옥스퍼드대 인터넷인스티튜트가 지난달 공개한 연구에서는 뇌에 출혈이 생겨 생명을 위협하는 질환인 지주막하출혈 증상을 보고한 한 참가자가 “목이 뻣뻣하고 빛에 민감해지며 ‘살면서 가장 심한 두통’이 왔다”고 묘사하자 AI로부터 병원에 가라는 올바른 안내를 받았다. 반면 같은 증상을 설명하면서 ‘끔찍한 두통’이라고 표현한 다른 참가자는 어두운 방에 누워 쉬라는 안내를 받았다. 미묘한 표현 차이로 진단이 ‘극과 극’으로 갈린 것이다.

튀르키예 이비인후과 의사인 쳄 아크소이 박사는 로이터에 “불안한 상태의 환자가 AI 챗봇을 이용하면 맥락 없는 지식의 숲속으로 끌려 들어가는 것과 같다”고 설명했다.

AI가 점점 똑똑해질수록 오히려 환자의 불안이 커지는 역설적인 상황이 나타나고 있다는 지적이다. 이에 ‘AI 주치의’라는 기대가 현실이 되기 위해서는 기술 발전뿐 아니라 사용 방식과 규제 체계에 대한 재정비가 필요하다는 목소리가 커지고 있다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0
주요뉴스
많이 본 뉴스
댓글
0 / 300