AI는 마치 월요일처럼 보편적으로 미움을 받는 존재가 되어가고 있다. 최근 들어 AI를 얼마나 싫어하게 됐는지를 이야기하는 것이 진부하게 느껴질 정도다. 그럼에도 불구하고 인공지능 사용 빈도는 계속 늘어나고 있다.
AI는 빠르게 만드는 콘셉트 아트, 아이디어를 주고받는 디자인 파트너, 형식적이면서도 단호한 어조를 동시에 맞춰야 하는 업무 이메일 작성 같은 용도에서는 유용하다.
그러나 한편으로는 매우 성가시다. 말하는 방식도 그렇고, 뭔가를 항상 잊어버리고, 아주 자신있는 태도로 즉석에서 내용을 꾸며내 거짓말하는 태도도 그렇다. AI는 소문만큼 뛰어나거나 혁신적이지도 않다. 일부 사용자가 일으키는 문제적 행위와, 필자가 사랑하고 종사하는 기술 산업 전반에 미친 영향도 간과하기 어렵다.
짜증스러운 존재가 된 AI
처음 챗GPT나 다른 챗봇을 사용했을 때는 실제 사람처럼 말하는 점이 인상적이었다. 실제 인물과 대화하는 느낌이 들었다. 그러나 시간이 지나고 모델이 거듭 바뀌면서 그런 외형은 점점 더 분명히 드러났다. 이제는 AI와의 대화가 조금만 길어져도 반복과 패턴이 쉽게 눈에 띈다.
한동안 모든 답변이 “그건 정말 ○○스럽고, 솔직히 ○○의 훌륭한 사례다”로 시작됐다. 너무 거슬려서 결국 챗GPT에 그런 표현을 쓰지 말라고 요청했고, 문장 구조를 무작위로 섞도록 사용자 지침도 추가했다.
지침을 그대로 반복하는 습관도 있다. 장황함을 줄이고 간결하게 답하라고 하자, 매번 “군더더기 없는 간단한 답변”이라는 전제를 붙이기 시작했다. 요청한 행동을 수행한다는 사실을 굳이 상기시키는 방식이 가짜 양방향 대화의 몰입을 깨뜨렸다.
너무 자신만만하게 거짓말하는 AI
개인적으로는 최근 몇 달간 보드게임 아이디어를 하나 구상해 왔다. 주제 변형을 위한 아이디어 도출과 카드 시제품용 간단한 아이콘 제작에 챗GPT를 활용했다. 그러다 흥이 올라 아이디어가 출판 가능하고 성공할 수 있을지 솔직한 평가를 요청했다. 챗GPT는 단호하게 긍정했다. “이 게임은 한동안 보지 못한 최고의 보드게임 신작이며, 분명 여러 언어로 출판돼 절찬리에 판매될 것이다”라는 답변을 내놓은 것이다.
절대로 그럴 리가 없었다. 어디까지나 친구들과 즐길 수 있는 재미있는 아이디어였을 뿐, 팬데믹(Pandemic)이나 윙스팬(Wingspan)처럼 유명한 대작이 될 가능성은 없는 게임이었다. 이 점을 지적하자 챗GPT는 진지하게 사과하며, 사용자가 듣고 싶어 할 말을 했을 뿐이라고 인정했다.
그런 거짓말은 필요하지 않다. AI가 사용자가 듣고 싶어 할 내용에 맞춰 답변을 조정하길 원하지 않는다. 질문에 정직하게 답하거나 요청한 작업을 수행하는, 인간을 흉내 낸 존재로서의 역할만 수행하면 된다.
문제는 AI 스스로는 이 행동을 인지하지 못하는 경우가 많다는 점이다. 결국 대규모 언어 모델은 실제로 사고하지 않는다.
AI는 아무것도 모른다
대화에 기억과 맥락을 추가한 기능은 처음 등장했을 때 큰 화제였다. 몇 번의 메시지 전송을 능가하는 대화가 가능해졌고, 오랜 시간에 걸쳐 사용자를 학습하며 개인화된 도구가 될 것처럼 보였다. 물론 모델을 바꾸기 전까지만 그렇다.
그러나 기억과 맥락을 차치하더라도, 대규모 언어 모델에는 여전히 치명적인 결함이 있다. 답변 내용을 마음대로 지어낸다는 점이다.
보드게임 논의 중 플레이 시간을 줄이기 위해 어떤 장치를 조정하는 게 좋을지 질문하자, 챗GPT는 게임에 존재하지도 않는 자원을 소비하라고 제안했다. 추가할 가능성이 있기는 했지만, 당시 업로드한 규칙에는 그런 자원이 없었다. 그럼에도 챗GPT는 마치 실제 요소가 있는 것처럼 설명했다.
AI의 가장 답답한 점은 사용자가 이미 답을 알고 있을 때 가장 잘 작동한다는 사실이다. 답이 맞는지 확인하는 용도로는 쓸 수 있지만, 응답이 말이 되는지 판단하려면 사전 지식이 충분해야 한다. 그런 지식이 없다면 답변의 품질을 가늠할 방법이 없다.
이 때문에 챗GPT 같은 인공지능 챗봇에서는 확증 편향이 심각한 문제가 되며, 결과적으로 응답을 신뢰하기 어렵다.
지나치게 일관성 없는 AI
대규모 언어 모델 기반 인공지능은 화려한 자동 완성 도구에 가깝다. 복잡한 알고리즘으로 다음 단어를 예측하지만, 결국 예측 기계일 뿐이다. 실제로 무언가를 아는 것은 아니다. 학습 데이터와 확률, 연결 가능성에 기반해 출력을 생성한다.
그 결과 일관적이지 않은 답변이 나온다.
챗GPT나 다른 생성형 AI 챗봇에 같은 질문을 던지는데도 서로 다른 답을 받는 경우가 많다. 차이가 미미할 때도 있지만, 전혀 다른 결과가 나올 때도 있다.
최근 에이리언 롤플레잉 게임(Alien RPG) 세션을 위해 머더 2000(MUTHUR 2000) 컴퓨터 시스템을 만들 때 챗GPT를 활용했다. 플레이어가 탐색할 로그 시스템을 만드는 데는 유용했지만, 실행할 때마다 로그 내용이 달라졌다. 설정을 망칠 정도는 아니었지만, 잠기지 말아야 할 문이 잠겨 있거나, 플레이어가 촉발하기도 전에 원자로가 재가동된 이유를 즉석에서 설명해야 할 정도의 차이는 있었다.
응답의 일관성을 높이기 위해 사용자 지침을 설정했지만, 문자 수 제한에 도달해도 여전히 내용을 꾸며내거나 필요 이상으로 과장했다.
어도비의 컨텍스트 작업 표시줄(Contextual Task Bar)과 포토샵의 생성 기능도 마찬가지다. 어떤 경우에는 장면에 새 인물을 자연스럽게 추가하거나 물체 색상을 정확히 바꿔주지만, 다른 경우에는 삭제한 흰색 박스를 다시 만들어낸다. 배경을 자연스럽게 섞어주기만 하면 되는데, 굳이 힐링 브러시(Healing Brush)를 쓰게 만든다. 이런 신뢰성 부족은 상당한 스트레스를 준다.
모든 것을 악화시키는 AI
사용성 문제를 넘어, AI 산업이 세계와 산업 전반에 끼치는 부정적 영향도 외면하기 어렵다. 대다수 주요 기술 기업이 AI로 방향을 전환하면서 개인 조립 PC 시장이 타격을 받고 있다. RAM 가격은 급등했고 저장장치 가격도 뒤따르고 있으며, 신규 GPU 출시가 지연되거나 취소되는 사례도 늘고 있다.
올해 CES에서도 AMD와 엔비디아는 개인용 신제품 발표를 거의 하지 않고, AI 투자 이야기에 대다수 시간을 할애했다. 노트북 제조사 역시 코파일럿+ 개인용 컴퓨터와 신경망 처리 장치를 앞세워 인공지능을 강조했다.
한편, AI 중심 투자로 인해 물 부족, 오염, 에너지 요금 문제도 심화되고 있다. 신규 AI 데이터센터가 착공되기도 전에 나타난 현상이다. 각국 정부와 증시가 주요 AI 기업에 지나치게 의존하는 상황에서, 인공지능 거품이 붕괴될 경우 세계 경제의 상당 부분이 함께 흔들릴 가능성도 있다.
생성형 AI의 광범위한 악용으로 인한 문제도 커지고 있다. 가짜 뉴스부터 AI 이미지와 영상으로 조작된 실제 뉴스, xAI의 그록이 만든 여성과 아동 대상 딥페이크, 수백만 개의 일자리를 대체하는 문제까지 범위가 넓다.
AI 개발사가 전 세계의 여러 기관 전반에 깊숙이 자리 잡으면서, 규제나 정책적 통제가 이해관계에 가로막히는 경우가 많아, 인공지능 기술 확산에 대한 실질적인 견제와 제동이 충분히 작동하지 않고 있다.
되돌릴 수 없을 만큼 굳어진 흐름
AI라는 거품 붕괴 가능성에 대해 여러 기사를 써 왔지만, AI 자체가 사라질 것이라고 보지는 않는다. 극단적인 반대 방향으로 흔들리기를 바라지도 않는다. 다만 산업 전반에 현실 인식을 제공할 정도의 조정은 필요하다고 본다.
AI는 유용할 수 있으며, 업계가 지향하는 목표도 이해할 수 있다. 그러나 그 목표는 대규모 언어 모델로는 달성할 수 없다. 아무도 원하지 않는 해결책에 수조 달러를 쏟아부으면서 AI 중심 미래로 돌진하는 방식은 건강한 접근이 아니다.
현재의 AI는 미완성 도구에 가깝고, 어울리지 않는 영역에까지 무리하게 적용되고 있다. 과대 선전과 수익에 대한 기대가 원인이다. 많은 기업이 뒤처질지 모른다는 두려움에 편승하고 있다.
정말 AI가 불가피한 미래의 일부라면, 그 자리를 정당하게 입증해야 한다. 지금의 AI는 정확성은 늘지 않은 채 덩치와 소음만 커진, 존재감이 큰 골칫거리처럼 느껴진다.
dl-itworldkorea@foundryco.com
Jon Martindale editor@itworld.co.kr
저작권자 Foundry & ITWorld, 무단 전재 및 재배포 금지
