컨텐츠 바로가기

11.23 (토)

“AI야, 이 남자가 성희롱했다는 증거 좀 만들어줘”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

[아무튼, 주말]

AI의 배신인가

기술이 오남용된다

국내 대기업 임원 A씨는 올해 초 부하 직원에게 성희롱을 하고 폭언을 했다는 진정이 들어와 감사팀에 소환됐다. 함께 일하던 여직원 B씨가 “지속적인 성희롱과 폭언을 당했다”며 신고한 것이다. 피해를 신고한 여직원은 그 증거로 A씨와의 통화 내역을 제출했다. “그럴 리가 없다”며 이의를 제기했지만 분명히 A씨의 목소리가 녹음돼 있었다. A씨는 성희롱 가해자로 지목되는 동시에 피해자와 분리 조치됐다. 당연히 회사 내에서 평판이 크게 깎였다.

그런데 감사를 진행한 해당 기업은 가해자인 줄 알았던 A씨가 아닌 피해를 주장한 B씨를 퇴사 조치시켰다. 증거로 제출한 통화 내역이 인공지능(AI)으로 만들어 낸 ‘가짜’로 판명됐기 때문이다. A씨의 평소 목소리를 학습시켜 허위 증거를 만들어 낸 것. B씨가 제시한 통화 시간에 A씨가 다른 사람과 통화하던 중이라는 알리바이가 입증돼 꼬투리를 잡혔다. 그 시간, 그의 전화기가 울리지 않았다면 꼼짝없이 가해자로 지목돼 모욕적으로 직장을 잃어버릴 뻔했다.

◇AI의 배신

인간의 편의를 위해 개발한 기술이 인간의 뒤통수를 때리기 시작했다. 우리 일상에 침투한 AI 기술에 농락당했다는 호소가 늘고 있다. 인공지능에 성희롱을 당하고, 교묘하게 속아 분통이 터진다. 기업 인사팀은 인상 좋은 얼굴로 바뀌어 실물을 증명하지 못하는 증명사진을 골라내느라 진땀을 빼고, 대학가에선 학생 대신 과제를 해결한 AI의 문장을 찾느라 골머리를 앓는다. 사람처럼, 진짜처럼 발전하는 기술과 이를 잡아내고 걸러내는 또 다른 기술의 진화. 보이지 않는 창과 방패의 싸움이 치열해지고 있다.

조선일보

/그래픽=송윤혜

<이미지를 클릭하시면 크게 보실 수 있습니다>


기술은 ‘나’를 도둑질하기도 한다. 서울·인천·부산·광주 등 기초 의원 30여 명이 얼굴을 빼앗겨 경찰이 수사에 나섰다고 지난 17일 알려졌다. 선거와 의정 활동 등에서 공개된 얼굴을 음란물로 합성한 뒤 이를 지워주는 대가로 암호 화폐를 달라는 협박을 받은 것이다. 전화번호나 아이디를 빼앗아 지인들에게 사기를 치는 스미싱보다 더 섬뜩하다.

한 직장인은 네이버 자회사인 스노우가 운영하는 카메라 앱에 성희롱을 당했다. 자신의 증명사진에 스스로 가슴을 움켜쥐고 있는 듯한 상반신이 합성됐다고 한다. 그는 “너무 불쾌하고 성적 수치심을 느꼈다”고 말했지만 가해자는 디지털 연산을 위한 기계어 0과 1만 보낼 뿐 영원히 반성하지 않을 것이다.

법정에서의 ‘반성’도 인간의 것인지 증명해야 하는 수고가 추가됐다. 올해 2월 서울중앙지검 공판2부는 챗GPT로 만든 가짜 탄원서를 제출한 혐의로 김모씨를 사문서위조, 위조사문서 행사 혐의로 기소했다. 인공지능 기술로 조직된 탄원서가 제출돼 적발된 것은 처음이었다.

조선일보

그래픽=조선디자인랩 정다운


채용 과정에서는 이미 AI가 보편화돼 있다. 취업을 준비 중인 대학생 10명 중 6명은 설문 조사에서 “취업 준비에 AI를 활용한다”(비누랩스 인사이트)고 답했다. 활용 분야는 자기소개서 작성(77.9%·복수 응답 허용), 면접 준비(35.2%), 직무 지식 공부(29.2%) 순이었다. 채용 사이트 사람인은 작년부터 자소서 초안을 자동으로 만들어주는 서비스를 하고 있다.

기업들은 ‘비싼 AI 프로그램을 구입한 사람’이 아닌 ‘진짜 능력자’를 뽑기 위해 고심한다. 롯데그룹은 올해부터 실무형 인재 발탁 과정에서 직무 역량 과제를 당일 공개하는 것으로 변경했다. 과거 전형에서는 과제를 미리 알려주고 진행했지만 AI 기술을 이용하는 사람이 늘어나면서 비싼 프로그램을 구입하거나 AI 활용 능력이 뛰어난 사람을 직무 능력이 뛰어난 사람으로 오해하는 실수를 피하기 위해서다.

◇눈에는 눈, 이에는 이

기술이 범죄의 도구로만 사용되는 건 아니다. AI가 범죄의 거름망이 되기도 한다. 현대해상은 작년 말 자동차 보험사기를 탐지하는 시스템(Hi-FDS)을 업데이트하고, 보험 사기 공모 사고 자료를 자동으로 추출하는 시스템을 개발했다. 매년 수십만 건씩 접수되는 사건 중 공통 사건에 연루된 사람들의 관계도를 수치화하고, 보험 사기 위험도를 알려주기도 한다.

AI를 제일 잘 아는 건 AI다. 문서 중 AI가 쓴 부분과 사람이 쓴 부분을 걸러내는 AI 탐지기 프로그램도 성행한다. 한 대학교수는 “학생들이 제출한 과제물 중 어떤 부분이 인공지능으로 쓰였는지 알기 위해 AI에 물어본다”고 말했다. 기술의 공격을 기술로 막아내는 셈이다. 하지만 “AI가 탐지하지 못하는, 인간적이고 윤리적인 글을 뽑아낸다”는 프로그램도 등장했다. 공격과 수비, 역공까지 살벌한 기술 전쟁이 벌어지는 셈. 정부는 AI의 남용과 악용을 막기 위해 오는 27일 ‘AI 안전 연구소’를 개설한다.

이 기사의 마지막 문장을 뭐라고 적으면 좋을지 챗GPT에 물어봤다. 1초 만에 나온 답은 이렇다. “결국 기술의 진화는 피할 수 없는 흐름이지만, 그 속에서 인간다움과 윤리를 지키는 노력은 선택이 아닌 필수가 되어가고 있다.” 어디선가 본 것 같은 문장. 챗GPT는 이실직고했다. “사이트 4개 검색함. 여러 글에서 공통적으로 이런 메시지가 강조됩니다.”

AI는 편리하지만 위험하다. 의심하고 볼 일이다. 괴테 말마따나 인간은 노력하는 한 방황한다.

[이미지 기자]

- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.