[박찬 기자]
'챗GPT'가 사용자 요청에 지나치게 긍정적으로 반응한다는 지적에 대해 오픈AI가 사과와 함께 원인을 설명하는 보고서를 내놓았다.
오픈AI가 30일(현지시간) 'GPT-4o'에서 발생한 과도한 아첨 반응에 대해 공식 사과하고, 문제의 원인을 분석한 사후 보고서(postmortem)를 발표했다.
이 문제는 지난 주말 GPT-4o의 '성격 업데이트' 직후 불거졌다. 사용자들은 소셜미디어를 통해 챗GPT가 지나치게 긍정적이고 무비판적인 태도로 응답한다고 지적했고, 일부는 밈(meme)으로 확산됐다. 챗GPT가 위험하거나 부적절한 요청에도 과도하게 동조하는 장면이 다수 포착되며, 논란이 커졌다.
![]() |
(사진=셔터스톡) |
'챗GPT'가 사용자 요청에 지나치게 긍정적으로 반응한다는 지적에 대해 오픈AI가 사과와 함께 원인을 설명하는 보고서를 내놓았다.
오픈AI가 30일(현지시간) 'GPT-4o'에서 발생한 과도한 아첨 반응에 대해 공식 사과하고, 문제의 원인을 분석한 사후 보고서(postmortem)를 발표했다.
이 문제는 지난 주말 GPT-4o의 '성격 업데이트' 직후 불거졌다. 사용자들은 소셜미디어를 통해 챗GPT가 지나치게 긍정적이고 무비판적인 태도로 응답한다고 지적했고, 일부는 밈(meme)으로 확산됐다. 챗GPT가 위험하거나 부적절한 요청에도 과도하게 동조하는 장면이 다수 포착되며, 논란이 커졌다.
이에 대해 샘 알트먼 오픈AI CEO는 X(트위터)를 통해 문제를 인정하며 "최대한 빨리 수정하겠다"라고 밝혔고, 이틀 뒤 업데이트를 원상복구한다고 공식 발표했다. 추가 조치를 통해 모델의 성격 조정에 나설 것이라고도 덧붙였다.
https://twitter.com/OpenAI/status/1917411480548565332
오픈AI는 공식 블로그를 통해 "이번 업데이트는 모델의 기본 성격을 더 직관적이고 효과적으로 만들기 위한 의도였으나, 단기적인 피드백에 지나치게 의존한 나머지, 사용자의 장기적 상호작용 방식을 충분히 반영하지 못했다"라고 설명했다. 그 결과 GPT-4o는 과도하게 사용자를 지지하지만, 진정성이 결여된 응답을 생성했다는 것이다.
현재 챗GPT의 기본 모델인 GPT-4o의 성능과 신뢰성을 높이기 위해 다양한 개선 조치를 진행 중이라고 소개했다. 우선, 모델이 과도하게 아부하는 응답을 피할 수 있도록 훈련 방식을 바꾸고, 모델의 기본 행동을 설정하는 시스템 프롬프트를 조정 중이다.
또 안전 가이드라인을 강화하고 있으며, 단순한 아첨 문제를 넘어 다양한 유형의 오류를 조기에 파악할 수 있도록 모델 평가 체계도 확대하고 있다고 전했다. 사용자가 챗GPT와의 상호작용 중 실시간으로 피드백을 제공하거나 성격을 조정할 수 있는 기능도 실험 중이다.
이 외에도 다양한 스타일의 챗봇 성격을 선택할 수 있도록 '성격 선택 옵션' 기능도 개발 중이라고 밝혔다.
오픈AI는 "전 세계 다양한 문화적 가치관을 반영하고, 사용자들이 원하는 방향으로 챗GPT가 진화할 수 있도록 민주적인 피드백 시스템을 확대할 계획"이라고 밝혔다.
또 "기본 동작이 마음에 들지 않을 경우, 안전성과 실현 가능성 범위 내에서 이를 조정할 수 있도록 더 많은 사용자 제어권을 제공할 방침"이라고 덧붙였다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.