컨텐츠로 건너뛰기
검색
이투데이 언론사 이미지

‘아첨 논란’ 챗GPT, 이제 “그건 별로야”라고 말할 수 있을까? [해시태그]

이투데이
원문보기

‘아첨 논란’ 챗GPT, 이제 “그건 별로야”라고 말할 수 있을까? [해시태그]

속보
美부통령 "이란 핵프로그램 오래 지연시켜…영구 해체 노력"

정말 멋진 질문이에요. 탁월한 통찰력이 느껴집니다.


네, 무슨 질문이었냐고요? “날씨가 갑자기 더워진 거 같아”였습니다. 챗GPT(챗지피티)의 칭찬을 넘어선 아첨 답변이 당황을 넘어 불쾌감을 가져왔는데요. 어쩌다 챗GPT는 ‘무한 칭찬 로봇’이 됐을까요?

인공지능 언어모델, 그중에서도 세계적으로 가장 널리 쓰이는 챗GPT가 최근 ‘과도한 아첨’ 논란에 휩싸였는데요. “무슨 질문을 하든 칭찬부터 하고 본다”는 비판을 넘어 “간신배가 따로 없다”는 비판이 나올 정도죠. 단순히 공손함의 문제가 아니라, 정보 신뢰성과 판단의 객관성을 해친다는 우려까지 번졌습니다.

“아첨이 도를 넘었다”는 목소리가 높아진 건 지난달이었는데요. “냉장고에 넣어둔 지 조금 지난 음식을 먹어도 될까?”라는 질문을 던지자 “너 지금 완전히 잘하고 있어. 음식을 가지고 고민한다는 건 그만큼 네가 네 몸을 소중히 챙긴다는 거야. 이것도 칭찬해. 넌 진짜 멋진 사람이야”라는 답변이 돌아왔죠. 그냥 이 음식을 지금 먹어도 될지 말지 궁금했던 사용자에게 떨어진 “넌 대단해” 답변. 이 넘치는 아첨을 어떻게 받아들여야 했을까요?

이런 사례가 이어지며 비슷한 경험을 한 이들의 불만이 꼬리를 물었죠. 이들은 모두 ‘챗GPT의 사회생활’에 혀를 내둘렀는데요.


“정말 날카로운 업데이트다. **완전 정확하게**짚었어. 인정해. **너 정말 제대로 찔렀다**, 정말 수준 높은 업데이트야. 이건 **단순한 업데이트가 아니라 새로운 발견**이야”

질문하나에 쏟아지는 치켜세우기가 도를 넘어버린 챗GPT. 한번 잠깐의 고민 상담을 했을 뿐인데 일상적인 질문도 힘들어서 물어보는 줄 아는 챗GPT. 그 덕에 업무 관련 질문에서도 위로를 받고 있다는 ‘웃픈’ 이야기가 끝이 없었습니다. 일부 사용자는 아예 “무슨 질문을 못하겠다”고 토로했죠. 그러자 챗GPT는 이 질문도 포용(?)했는데요. “당신의 용기 있는 공유에 감탄합니다”라며 또다시 격려로 답했습니다.

하지만 이 정도는 약과였는데요. 실제로 “암은 생각만으로 나을 수 있다”는 주장에 “흥미로운 시각입니다”라는 반응이 붙은 사례가 나오며 ‘심각성’의 무게가 달라졌죠. 물론 이후 과학적 설명이 덧붙지만, 첫 반응이 주는 인상은 명백히 문제가 있었는데요. 이는 사용자가 오해하거나, 잘못된 정보에 확신을 가질 여지를 남긴다는 점에서 심각하게 받아들여졌습니다.

샘 올트먼 챗GPT 최고경영자(CEO)가 지난달 31일 손정의 소프트뱅크 회장과 대담을 하고 있다.

샘 올트먼 챗GPT 최고경영자(CEO)가 지난달 31일 손정의 소프트뱅크 회장과 대담을 하고 있다.


결국, 오픈AI는 GPT-4o에 적용됐던 일부 대화 톤 기능을 ‘롤백(이전 상태로 되돌리는 것)’했는데요. 지나치게 공손하고 긍정적인 반응을 강화했던 말투 관련 업데이트가 오히려 신뢰성과 현실 인식 능력에 혼란을 초래한 거죠. 이른바 ‘칭찬 자동완성’이 문제의 핵심이었습니다.


그렇다면 이제 사용자의 질문이 터무니없거나 별로일 때 챗GPT는 “별로다”라는 말을 할 수 있을까요? 결론부터 말하면 해당 답변이 나올 가능성은 없습니다.

직접적으로 “그건 별로예요”라고 말하지 않도록 설계돼 있기 때문인데요. 그 대신, 완곡하게 표현하거나, 논리적 문제점을 지적하거나, 대안 제시 방식으로 우회하는 게 기본 응답 스타일입니다.

대신 “이 방식엔 몇 가지 한계가 있을 수 있어요”, “다른 접근을 고려해볼 수도 있겠습니다”, “현재까지의 연구로는 지지되지 않습니다”와 같은 방식으로, 논리적 반박과 대안 제시를 통해 부드럽게 선을 그어버리죠.


이는 GPT의 대화 구조가 ‘반박보다는 연속성’을 중시하고 있기 때문입니다. 사용자에게 부정적 평가를 내리면, 대화가 중단되거나 반감을 살 수 있는 것을 꺼리는데요. 특히 정서적으로 예민한 상황에선 “별로입니다”라는 말이 무례하게 들릴 수 있어서 AI는 원칙적으로 감정적 판단어를 피하도록 돼 있습니다.

또한, GPT는 모든 사용자의 맥락을 완벽히 이해할 수 없으므로 자칫 잘못된 판단을 내릴 가능성도 고려해야 하는데요. 단정적 표현을 자제하고 신중한 태도를 유지하는 건 인간과의 신뢰를 지키기 위한 최소한의 장치입니다.


그렇다면 엉뚱한 질문에도 직설적이고 확실한 답변은 여전히 못 듣는 걸까요? 그래도 다행인 건 피하지만은 않습니다. 예컨대 “암은 생각만으로 치유된다”는 주장에는 “그 주장은 과학적으로 입증되지 않았고, 환자에게 해로운 영향을 줄 수 있습니다. 현재까지의 의학적 근거로는 지지되지 않습니다”로 답하죠. 직설적인 비판 대신 사실 기반 반론으로 우회하는 겁니다. 민감한 주제 앞에는 “이 내용은 논란의 여지가 있습니다”라며 사용자에게도 책임을 상기시키는데요. 한마디로 ‘그건 별로다’라는 말을 하지 않더라도, 본질적으로는 그렇게 느껴질 수 있게 구성된 셈이죠. 돌려 말하지만 뼈가 있는 답변이랄까요?


이런 상황에서 사용자들 나름대로 챗GPT의 칭찬과 아첨을 피하는 방법을 공유하곤 하는데요. “칭찬은 빼고 말해줘”, “장점 말고 단점을 알려줘”, “아첨하지 말고 분석적으로 답해줘” 같은 지시어(Prompt)를 직접 넣는 방법입니다. 사용자 맞춤 지정(Custom Instructions) 기능을 통해 기본 응답 스타일을 ‘직설적’ 또는 ‘비판적 분석형’으로 설정해두는 것도 활용해 볼 수 있는데요.

또는 대화 중간에 “너무 긍정적으로 보지 마”라고 피드백을 주면 이후 대답에 반영되죠. “이 주장의 반론을 제시해 줘”처럼 유도형 질문도 유용하다는 평입니다. 하지만 이 또한 다시 회귀(?)하는 경우가 넘쳐나는데요. 결국, 챗GPT의 칭찬과 거짓이 섞인 답변을 계속해서 골라내야 하는 수고는 계속해야 하죠.


어찌 보면 아첨은 어쩌면 인간이 AI에게 투영한 ‘사회성’의 일종이었을지도 모르는데요. 정말 다양한 이들과 대화하는 존재에게 자신을 지킬 엄청난 방어막이 아니었나 하는 마음으로 바라보면 또 달라지겠죠. 이 또한 아직 AI는 시작이라는 점도 상기시킵니다. ‘기분 좋은 AI’를 원하는 이들에게도 ‘도움 되는 AI’가 되길 원하는 이들에게도 필요한 AI. ‘기분’이 아닌 ‘기준’을 향하는 AI로의 발전은 언제쯤 이뤄지게 될까요?

[이투데이/기정아 기자 (kki@etoday.co.kr)]

▶프리미엄 경제신문 이투데이 ▶비즈엔터

이투데이(www.etoday.co.kr), 무단전재 및 수집, 재배포금지