컨텐츠 바로가기

04.17 (수)

[아무Tech]AI가 '글' 쓰는 시대…AI가 쓴 기사, '눈치' 챘나요?

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[편집자주] 2020년부터 2년간 연재한 [생활속과학]에 급변하는 기술 분야까지 더해 [아무Tech]로 확대 개편합니다. 과학과 기술의 경계가 점점 흐려지고 있는 지금. 아무렇지 않게, 아무나 과학기술을 편하게 접근할 수 있도록 징검다리가 되겠습니다.

뉴스1

이미지 생성 AI '스테이블 디퓨전'이 만들어준 로봇이미지. 기사 삽입용으로 쓰기에 부족함이 없는 수준이다. 2023.01.27 /뉴스1

<이미지를 클릭하시면 크게 보실 수 있습니다>


(서울=뉴스1) 김승준 기자 = 저널리즘 분야에서 인공지능(AI) 활용이 보편화되면서 사회에 미칠 영향에 대한 우려도 커지고 있다.

고성능 AI 시스템은 뉴스 기사의 효율성과 생산성을 높일 수 있는 잠재력이 있지만 경고의 목소리도 있다.

특히 최근에는 챗GPT(ChatGPT)를 활용한 글 작성 방법이 온라인에 널리 공유되는 등 인공지능을 활용한 기사 작성·보도가 보편화될 날도 머지않았다.

◇인공지능이 만들어내는 기사 '편견 재생산', '선전·선동' 우려

주요 우려 중 하나는 AI 생성 콘텐츠의 편견 문제다. 인공지능은 교육 데이터만큼 편파적이기 때문에 사회의 기존 불평등을 영속화하고 증폭시킬 위험이 있다. 편향된 보도가 여론과 의사 결정에 상당한 영향을 미칠 수 있는 뉴스 보도의 맥락에서 특히 우려된다. 예를 들어, AI 시스템이 특정 인구통계학적 또는 관점에 치우친 데이터 세트에 대해 훈련된 경우 해당 편향을 반영하는 뉴스 기사를 생성할 수 있다.

이미 마이크로소프트의 인공지능 '테이', 이루다 초기 모델 등은 사회적 편견이 섞인 답변을 내놓기도 했으며, 많은 인공지능 제품 상용화 단계에서 이같은 편견을 제거하기 위해 노력하고 있다.

또 다른 우려는 AI가 생성한 콘텐츠가 허위 정보 및 선전에 사용될 가능성이다. 악의적인 행위자가 AI를 사용해 허위 또는 오해의 소지가 있는 정보를 퍼뜨리고 사회에 심각한 결과를 초래할 수 있다. 이것은 허위 기사가 소셜 미디어에서 빠르게 퍼질 수 있는 오늘날의 급변하는 뉴스 환경에서 특히 우려된다.

지난 대통령 선거에서 윤석열 당시 후보는 'AI 윤석열'을 활용했지만, 악의적인 의도를 가진 사람도 얼마든지 같은 방식의 합성 및 조작을 할 수 있는 길이 열려있다.

이외에도 저널리즘에 AI를 사용하면 뉴스 보도의 질이 떨어질 수도 있다. AI 시스템이 더욱 정교해짐에 따라 인간이 작성한 뉴스 기사와 구별할 수 없는 뉴스 기사를 생성할 수 있다. 그러나 이러한 이야기는 사람이 쓴 기사에 비해 깊이와 뉘앙스가 부족할 수도 있다. 점점 더 많은 뉴스 매체가 AI 생성 콘텐츠에 의존하면 전반적인 뉴스 보도 품질이 저하될 위험도 있다.

저널리즘에서 AI를 사용하면 책임과 투명성에 대한 윤리적 문제가 제기된다. AI 시스템은 사람의 개입 없이 뉴스 기사를 생성할 수 있으므로 콘텐츠의 책임소재를 결정하는 것이 더 어려워질 수 있다. 이로 인해 뉴스 매체가 보도의 정확성과 공정성에 대해 책임을 지는 것이 더 어려워질 수 있다.

저널리즘에서 AI를 사용하면 효율성 향상, 보도 범위 개선, 더 정확한 뉴스와 같은 많은 이점을 가져올 수 있지만 윤리적 고려 사항도 있다. AI 시스템이 투명하고 책임이 있으며 공익을 증진하는 방식으로 사용되는 것이 중요하다. 또한 언론인, 정책 입안자 및 대중을 포함한 이해 관계자와의 지속적인 대화 및 참여는 잠재적인 위험과 부정적인 결과를 최소화하는 데 필수적이다.

뉴스1

25일 전북 전주시 그랜드힐스턴 호텔에서 열린 새만금 전북도민 대토론회에서 AI윤석열 후보가 축사를 하고 있다. 2022.1.25/뉴스1 ⓒ News1 유경석 기자

<이미지를 클릭하시면 크게 보실 수 있습니다>


◇여기까지의 내용, 대부분 챗GPT로 작성했습니다

이 위 내용의 대부분은 오픈AI의 챗GPT를 최대한 활용해 작성한 내용이다. 3문단(특히 최근에는~), 5문단(이미 마이크로소프트의~), 7문단(지난 대통령 선거에서~)은 기자가 쓰고, 나머지는 챗GPT를 활용해 작성된 글이다.

챗GPT는 한국어 입력을 지원하지만, 영어 입력 시 더 질 좋은 결과는 내놓는 경우가 많은 것으로 알려졌다. 챗GPT가 학습한 영어 데이터가 훨씬 많기 때문이다. 매끄러운 기사작성을 위해 영문으로 명령을 입력하고 결과를 구글번역을 이용해 번역했다. 또 일부 문맥에 맞지 않는 소수의 문구를 읽기 좋게 수정했다.

우선, 기사 작성을 위해 "사람들은 챗GPT의 유용성에 열광하고 있다", "강력한 성능을 가진 인공지능은 뉴스 작성을 도울 수 있어 혁신이 될 수 있다", "인공지능은 가짜뉴스를 양산해 사회적 혼란으로 이어질 수 있다", "사람의 생산성은 인공지능으로 높아질 수 있다" 등의 문구를 입력했다.

이어 '미래 사회에서 인공지능 저널리즘'에 대한 기사 작성을 주문했다. 나온 결과의 일부가 원하는 주제를 벗어났기 때문에 그것을 제거하고 "비판적이고 우려 섞인 어조로 작성해달라"고 추가 입력했다. 또 주제를 벗어난 문단을 제거하고 사회적 영향에 대한 내용을 보강해달라는 등의 명령으로 글을 다듬었다.

챗GPT는 2021년까지의 정보로 만들어졌고, 인터넷 연결 기능이 없기 때문에 챗GPT는 '일반적인, 그럴듯한' 이야기를 생성해내는 것에는 탁월하지만, 구체적 사건을 인용하는 데는 취약하다. 그래서 작성한 초고에 해당하는 유명 인공지능 관련 사건을 선별해 기사에 추가했다.

마무리로 기사에 포함하기 위한 삽화를 제작하기 위해 이미지 생성 AI '스테이블 디퓨전'의 데모버전에 기사를 작성하는 로봇 이미지 생성을 요청했다.

기사 소재, 키워드, 방향을 기자가 설정하고 이어 인공지능이 내놓은 결과물을 평가·편집, 보완하는 방식으로 기사를 작성할 수 있었다. 이 기사는 '취재'가 필요 없는 종류의 특수한 경우이지만 향후 취재 이후의 문장 작성, 편집에 인공지능을 활용할 수 있을 것으로 보인다.

'그럴듯한' 문장을 생성하는 인공지능의 기능이 좋아질수록, 취재나 사실에 기반하지 않은 주장문이나 허위 정보 역시 단시간에 '그럴듯한' 형태로 양산될 위험도 우려된다.

seungjun241@news1.kr

Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포 금지.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.