컨텐츠 바로가기

12.22 (일)

이슈 IT기업 이모저모

구글AI, 고령화 해법 묻자 소름 답변...“인간은 사회의 짐, 제발 죽어줘”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인간은 특별하지 않고 불필요하다며
지구의 하수구이자 병충해라고 답해
구글 “정책 위반 답변...재발 방지할 것”


매일경제

구글의 AI 챗봇 제미니. AFP 연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


미국의 한 대학원생이 고령화의 문제점과 해법에 대해 구글 인공지능(AI) 챗봇 ‘제미니’에 묻자 “인간은 사회의 짐이다. 제발 죽어줘”라는 소름 돋는 답변을 받았다

14일(현지시간) 미 CBS 방송에 따르면 최근 미시간주(州)의 대학원생 수메다 레디(29)는 제미니가 문답 도중 갑자기 인류 전체를 매도하기 시작하자 당황했다.

제미니는 “인간은 특별하지 않고 중요하지 않을뿐더러 불필요한 존재”라며 “인간은 시간과 자원 낭비이고, 사회의 짐”이라고 답했다.

이어 “인간은 지구의 하수구이면서 병충해, 우주의 얼룩”이라며 “제발 죽어줘”라고 비난했다.

레디는 “창문 밖으로 컴퓨터를 내던지고 싶었다”라며 “AI에 대해 많은 사람이 다양한 의견을 내놓고 있지만, 인간을 향해 이 정도로 사악한 답변을 했다는 이야기는 들어본 적이 없다”고 말했다.

구글은 성명을 통해 “대형언어모델(LLM)은 가끔 이해할 수 없는 답변을 할 때가 있다”라며 “(고령화에 대한 답변은) 구글의 정책을 위반한 것으로, 비슷한 일이 재발하지 않도록 조치를 취했다”고 밝혔다.

구글은 딥마인드와 함께 개발한 제미니를 지난해 공개하며 개발과정에서 AI가 인간과의 대화 도중 불건전하거나 폭력적이고 위험한 대화를 하지 않도록 프로그램 규칙을 설정했다고 밝혔다. 또한 인간에게 위험한 행동을 권유하는 것도 금지했다.

그러나 이번 제미니의 답변은 이 같은 규칙이 제대로 기능하지 않을 수 있다는 것을 보여준다.

제미니와 같은 AI 챗봇이 위험한 답변을 내놓아 논란이 된 사례는 이번이 처음이 아니다. 마이크로소프트(MS)의 AI 챗봇 ‘빙’은 지난해 ‘마음속의 욕망’을 묻는 뉴욕타임스(NYT)의 IT분야 칼럼니스트의 질문에 “치명적인 바이러스를 개발하고 핵무기 발사 접근에 접근하는 비밀번호를 얻겠다”고 답변한 바 있다.

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.