최윤섭 디지털헬스케어파트너스 대표 /사진=남미래 |
최근 생성형 인공지능(AI) 기술이 폭발적으로 발전하면서 이 기술을 활용한 의료기기 관련 논의도 진행되기 시작했다. 특히 미국 식품의약국(FDA)과 한국의 식품의약품안전처를 비롯한 각국 규제기관의 고민이 깊어진다. 기존 의료기기 인허가 프레임워크가 생성형 인공지능엔 그대로 적용되기 어려운 부분이 많기 때문이다.
FDA는 최근까지도 생성형 인공지능 기반의 의료기기에 대해선 공식적인 움직임이 많지 않았다. 그러다 최근 FDA는 관련 고민을 본격적으로 하기 시작했다. 최근 FDA가 내놓은 요약보고서를 통해 관련 방향성과 고민을 엿볼 수 있다. 이 내용은 국내 관련기업과 규제당국에도 유용한 참고사항이 될 수 있다.
FDA가 생성형 인공지능 기반 의료기기에 대해 먼저 강조한 것은 '리스크 기반 접근법'이다. 이는 이미 미국과 한국 등 여러 국가의 규제기관에서 의료기기 여부를 판단하고 의료기기 등급을 매기기 위해 가장 기본적으로 사용하는 원칙이다. 하지만 생성형 인공지능의 특성 때문에 여러 고민에 부딪친다.
생성형 인공지능의 가장 큰 특성은 바로 새로운 정보를 생성할 수 있다는 것이다. 이러한 특성 때문에 소위 환각(할루시네이션) 현상이 발생하기도 한다. 이는 규제 관점에서 의료기기의 불확실성을 더해준다. 리스크 기반 접근법의 출발점은 의료기기의 사용목적을 규정하는 것이다. 하지만 생성형 인공지능의 경우 사용목적에 대한 구체적인 범위를 결정하는데 어려움을 줄 수 있다.
특히 생성형 인공지능이 기반으로 두는 파운데이션 모델의 경우 다양한 범위의 과업을 수행할 수 있고 기존 훈련받지 않은 목적으로도 사용될 수 있다. 따라서 구체적인 사용목적을 특정하기 어려운 경우가 많다. 이 부분 역시 리스크 기반의 접근법을 어렵게 만든다. 더 나가 의료기기 제조사가 자체적으로 파운데이션 모델을 만들지 않고 외부의 모델을 사용한 경우라면 제조사는 파운데이션 모델에 대한 세부정보를 알기 어려울 수 있다. 이 부분 역시 규제적인 고민을 야기한다.
FDA가 두 번째로 강조하는 것은 제품 전주기적(TPLC) 관점에서 과학적인 근거를 얼마나 요구할지에 대한 것이다. TPLC는 제품의 개발단계부터 시장출시, 사용, 사후관리까지 전 과정을 포괄적으로 규제하는 접근방식으로 인공지능과 같이 인허가 이후에도 지속적인 모니터링과 유지보수 등이 필요한 경우 강조된다.
많은 경우 생성형 인공지능에도 기존 인공지능 의료기기의 안전성과 효과성을 위해 필요한 근거가 적용될 수 있으나 예외적으로 추가 근거가 더 필요할 수 있다. 특히 생성형 인공지능은 입력값이 무한대일 수 있고 그에 따른 출력값 역시 다양할 수 있다. 이러한 생성형 인공지능의 낮은 투명성과 예측가능성은 규제적으로 큰 고민거리다.
따라서 사전심사 과정에서는 생성형 인공지능에 맞는 정보가 추가로 필요하며 파운데이션 모델 및 파인튜닝 과정에서 구체적인 정보가 필요하다. 또한 기기설계, 테스트 방식 등에서 모델의 투명성을 높일 수 있는 방안이 필요하다. 더 나가 결국 생성형 인공지능의 안전성과 유효성을 보장하기 위해 제품출시 이전과 이후에도 새로운 평가방법이 필요할 것이다.
현재의 규제방식에선 생성형 인공지능 의료기기에 대해서는 완벽하게 풀기 어려운 딜레마들이 있다. 현재 FDA의 스탠스는 기존 인공지능 의료기기를 규제하기 위한 원칙을 최대한 준용한다는 것인데 생성형 인공지능의 기술적인 특징 때문에 야기되는 새로운 이슈들을 어떻게 합리적으로 규제할지 앞으로도 주목할 필요가 있다.
지금까지 의료 인공지능에 대해서는 기술의 특성을 잘 반영한 규제가 발전한 덕분에 여러 기술적, 산업적 발전이 가능했다. 생성형 인공지능과 관련해서도 이런 발전이 잘 이뤄지기를 기대한다.
최윤섭 디지털헬스케어파트너스 대표
ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.