컨텐츠 바로가기

미 의료진들이 공감하는 것..."편견없는 AI의료기기 개발 위해 다양한 빅데이터 인프라 구축해야"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
편견 없는 알고리즘의 개발을 위해 광범위하고, 다양한 자료수집이 AI 학습 시스템에 필요하다는 데 의료계가 공감하고 있다.

최근에 미 시카고 대학 연구진은 암 이미지 분석을 위한 AI 모델이 편견의 지름길을 선택할 수도 있다는 연구 결과를 발표했다.

인공지능 도구인 딥러닝 모델은 종양 생체검사 검사대상물의 디지털 이미지를 분석, 의사가 암의 유형을 신속하게 분류하고 예후를 예측하는 데 쓰이지만, 이 알고리즘이 편향된 예측을 할 수도 있다는 것이 연구진의 설명이다.

이 연구 결과는 지난 22일 과학 전문지 사이언스 데일리(Science daily)에 실렸다.

AI타임스

<이미지를 클릭하시면 크게 보실 수 있습니다>


(출처=셔터스톡)시카고 대학 연구진이 주도한 이 새로운 연구는 특정 암표시를 인지하는 방법을 스스로 배우는 머신러닝 모델들이 개별 환자에 의존하지 않고, 같은 위치의 다른 환자들과 함께 결과를 예측하는 제출 사이트를 이용하게 된다는 설명이다.

이는 결국 특정 의료 센터에 초점을 맞출 가능성이 더 크고 이미 진료 접근에 어려움을 겪고 있는 인종 또는 소수 민족의 환자들에게 치료 기회를 놓치는 등의 편견을 초래할 수 있다는 주장이다.

"우리는 현재 딥러닝 모델 방법론에서 특정 지역과 환자 집단이 부정확한 알고리즘 예측에 더 쉽게 포함되도록 만드는 명백한 구멍을 발견했다"라고 시카고 의대 의학과 조교수이자, 공동선임 저자인 알렉산더 피어슨(Alexander Pearson) 박사는 연구팀을 대변해 지적했다.

피어슨 박사에 따르면, 암 환자 치료의 첫 번째 단계 중 하나는 조직검사이며, 종양의 작은 조직 샘플을 채취해 디지털 이미지를 만드는 작업이 선행된다. 이때 위치별로 서명(Signature)을 만드는데 이 위치별 서명이 문제가 된다는 주장이다.

이 서명들은 딥러닝 알고리즘에 의해 쉽게 감지되고, 이때 편향의 문제가 개입된다. AI 모델은 영상에서 보이는 생물학적 서명이 아닌, 두 가지 차이로 인해 생성된 영상 인공물을 기반으로 감지한다는 것을 의미한다.

일례로, 검사대상물 슬라이드에 대한 이미지 처리 기법이 좋은 병원에서 제출된 것이면 더 나은 결과를 예측하는 반면, 나쁜 병원의 이미지처럼 보일 경우. 더 나쁜 결과를 예측할 수 있다는 주장이다.

피어슨 박사는 "알고리즘은 이미지를 구별하기 위한 신호를 찾기 위해 설계됐으며, 사이트를 식별하는데 게으르게 동작한다."며, "실제 생물학적 신호에서 해당 부위별 디지털 조직학적 서명을 분리해야 한다"고 강조했다.

크고 다양한 정보 인프라 구축 필요해

인공지능(AI)과 머신러닝(ML)의 발달로 이제는 컴퓨터 시스템이 마치 의사처럼 피부암을 진단하고, 대장내시경에서 암을 찾아내는 시대가 됐다.

하지만 이 AI 의료 기술들이 편중이 된 상태로 사용된다면 어떻게 할까?

지난해 11월 17일 미국의 대중 과학잡지 사이언티픽 어메리칸에는 아미트 카우샬(Amit Kaushal), 러스 알트만(Russ Altman), 커트 랭로츠(Curt Langlotz) 등 스탠퍼드 의대 전문가 3인이 공동으로 쓴 칼럼이 실렸다.

이들에 따르면, 의학계는 오래 전부터 전체 모집단을 나타내지 않는 데이터로 훈련된 AI 알고리즘의 성능이 떨어지는 경우가 많다는 것을 알고 있었다는 것이다.

예를 들면, 연구자들은 이미 많은 수의 백인 남성을 대상으로 훈련된 피부암 탐지 알고리즘이 흑인 피부에 영향을 미치는 피부암을 감지하는데 더 나쁘다는 것을 우려하고 있다.

따라서 의료용 AI 알고리즘은 다양한 모집단에서 추출한 데이터셋으로 학습할 필요가 있으나, 이러한 학습이 이뤄지지 않고 있어 문제라는 주장이다.

또 한 예로, 미국 의사협회 저널(JAMA)에 발표된 최근 연구에 따르면, 캘리포니아, 뉴욕, 매사추세츠 등 3개 주에서 나온 AI 알고리즘을 훈련시키는 데 사용된 데이터들을 조사한 결과, 인종, 성별, 지리적 측면에서 다양성의 문제를 안고 있다는 것이다.

즉, 연구자들이 크고 다양한 의료 데이터셋을 쉽게 얻을 수 없으며, 이로 인해 편중된 알고리즘이 발생할 수 있다는 것이 의료진의 주장이다.

이들은 한목소리로 "의료 데이터 공유가 더 일반적이어야 한다"고 강조하고, "그러나 의료 데이터의 존엄성과 관련 개인정보보호법은 데이터 공유에 대해 심각한 결과를 제공한다"고 주장했다.

그 이유에 대해 이들 의료진은 데이터를 공유하는 병원이 지역 경쟁업체에 환자를 잃을 가능성이 더 크기 때문이라고 주장했다.

따라서 이들은 "AI의 편견은 복잡한 문제이며, 다양한 교육 데이터를 제공한다고 해서 없어지지 않는다."며, "공정한 알고리즘을 교육하는 데 필요한 크고 다양한 데이터를 제공할 수 있는 정보 인프라를 구축해야 한다"고 밝혔다.

백인 남성 신체 AI 표준 바로 잡아야

알고리즘의 편견 이야기는 다양한 의료 전문지에서 다뤄지고 있다.

올해 5월 17일 헬스아이티 애널리틱스(HealthITAnalytics)에는 "편견이 인공지능의 발전에 매우 큰 장벽"이라는 주장이 실렸다.

이 주장을 편 사람들은 스탠퍼드 대학 연구진이다. 이들은 최근 발표한 논문에서 의료 분야에서 인공지능을 안전하고 효과적으로 사용하기 위해선 연구자들이 편견을 제거하는 것이 중요하다고 강조했다.

공동 저자인 론다 쉬빙거(Rhonda Schibinger) 교수는 "백인 남성의 신체는 오랫동안 의약품의 발견, 치료 등의 기준에서 표준이 되어 왔는데 앞으론 AI 기기가 이런 역사적 패턴에 빠지지 않도록 하는 것이 중요하다"고 말했다.

아울러, 공정한 AI 기기 개발을 위해선 적절한 자료수집이 우선이지만 병원 또는 학술 센터로 제한되는 것이 일반적 현상이라고 지적했다.

따라서 이러한 격차를 해소하려면, 다양한 자료수집과 더불어 AI 도구를 배치한 이후에도 일관성있게 평가하는 것이 중요하다고 강조했다.

AI타임스 조행만 객원기자 chohang5@kakao.com

[관련 기사]AI, 암 조기 발견에 획기적 능력 발휘...CADU AI는 의료기기로 최초 승인돼

[관련 기사]KT, 뉴로시그마와 손잡고 디지털치료제 사업 시작..."효용성·성장잠재력 뛰어나"

Copyright ⓒ '인공지능 전문미디어' AI타임스 (http://aitimes.com)
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.