AI 기술이 악용될 수 있는 영역 인식 조사 결과. 자료=디지털리터러시협회 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능(AI) 기술이나 서비스에 대한 관심이 높아지면서 AI로 인한 사이버불링(괴롭힘) 우려가 커지고 있다. AI 산업 발전을 위해 AI 윤리 교육이 필요하다는 지적이다.
디지털리터러시협회는 이 같은 내용을 담은 '사이버불링 & AI에 관한 국민인식 조사' 결과를 발표했다. 조사는 만 14~69세 남녀 2000명을 대상으로 진행됐다.
응답자 중 70.8%는 AI 기술이나 서비스에 대해 긍정적 인식을 갖고 있었다. 77.9%는 AI 기술이나 서비스를 사용할 의향이 있다고 응답했다.
AI 기술이 악용될 수 있는 영역에 대해서는 딥페이크 조작 영상(21.7%), 자동 개인정보 수집(14.7%), 생성형AI 이용 허위정보(12.3%) 순으로 집계됐다. 모든 조사 대상에서 동일하게 딥페이크 조작 영상에 대한 우려가 가장 컸다.
응답자 중 58.5%는 딥페이크 기술로 만든 콘텐츠를 경험한 것으로 나타났다. 딥페이크 콘텐츠 식별 여부에 대해서는 55.2%가 구별하기 힘들다고 응답했다. 성별로는 남자(49.6%), 여자(61.0%)로 여자가 11.4% 더 높은 비율로 구별하기 힘들다고 답했다. 연령별로는 14~19세(51.2%), 20대(48.0%), 30대(65.0%), 40대(62.2), 50대(76.6%), 60대(76.6%)로 대체로 연령이 높을수록 구별하는 데 어려움 느끼는 것으로 나타났다.
응답자 가운데 62.7%는 AI 기술 및 서비스로 인한 사이버불링이 심각한 문제가 될 수 있다고 내다봤다.
88.4%는 'AI 산업 발전을 위해 AI 윤리가 중요하다'고 응답하는 등 AI에 의한 사이버불링을 대비해야 한다고 인식했다.
AI 윤리 문제에 대한 주체별 책임에 대해서는 정부(82.1%), 서비스 기업(80.8%), 개발 기업(80.5%), 이용자(62.8%), 학교 및 교육기관(60.5%), 언론 및 시민단체(59.5%) 순으로 책임이 있다고 응답했다.
사이버불링 심각성 인식 조사 결과. 자료=디지털리터러시협회 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
김묘은 디지털리터러시협회 대표는 “1인 미디어 크리에이터 시대가 되면서 콘텐츠에 의한 사이버불링이 새로운 트렌드로 자리 잡았고, AI 기술이 접목되는 사이버불링도 자동화, 고도화 특징을 띄며 지능화된다”면서 “윤리 교육을 선행하지 않으면 AI 시대에 새롭게 진화하는 사이버불링과 온라인 폭력 문제가 많이 발생할 수 있다”고 강조했다.
김지선 기자 river@etnews.com
[Copyright © 전자신문. 무단전재-재배포금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.