오픈AI [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 오픈AI의 음성·텍스트 변환 인공지능(AI) 모델 '위스퍼'(Whisper)가 텍스트의 일부 또는 전부를 조작하는 이른바 '환각' 경향을 보였다고 지난 26일(현지시간) IT매체 테크크런치가 전했다.
미시간 대학 연구원은 10건의 오디오 트랜스크립션 중 8건에서 환청이 발견됐다고 전했다. 한 머신러닝 엔지니어는 100시간 이상의 위스퍼 트랜스크립션을 연구한 결과, 절반 이상의 트랜스크립션에서 환각을 발견했다고 한다. 또 한 개발자는 위스퍼로 만든 거의 모든 2만6000개의 트랜스크립션에서 환각을 발견했다고 보고했다.
특히 의료 분야에서 위스퍼 기반 도구의 활용이 확대되고 있는 가운데, 이 같은 환각 오류에 대한 우려의 목소리가 커지고 있다. 현재 미국의 나블라(Nabla)사가 개발한 위스퍼 기반 음성인식 도구는 3만 명 이상의 임상의와 40개 의료 시스템에서 사용되고 있다.
이에 대해 오픈AI는 "환각을 줄이는 등 모델의 정확성을 개선하기 위해 지속적으로 노력하고 있다"며 "사용 정책에 따라 특정 고위험 의사결정 상황에서는 위스퍼 사용을 금지하고 있다"고 언급했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.