컨텐츠 바로가기

11.22 (금)

이슈 인공지능 윤리 논쟁

“제2의 이루다 막는다” 방통위 AI윤리 법·제도 손질한다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

-이용자·사업자 대상 교육 컨설팅 강화

-AI윤리규범 구체화해 제도개선

-AI 서비스 책임소재 등 명확히, 법체계 정비

헤럴드경제

스타트업 스캐터랩의 인공지능(AI) 챗봇 '이루다'


[헤럴드경제=박세정 기자] 인공지능(AI) 채팅로봇 ‘이루다’의 성희롱·차별·혐오 논란이 확산하자, 방송통신위원회가 AI 윤리규범 제도개선에 나섰다.

방송통신위원회는 AI 서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록, 이용자‧사업자 대상 교육‧컨설팅을 지원하고, AI윤리규범 등을 구체화해 제도개선을 추진할 계획이라고 14일 밝혔다.

최근 챗봇 ‘이루다’를 성희롱 대상으로 삼거나. AI가 혐오, 차별적인 발언을 일삼아 사회적으로 큰 논란을 일으켰다. 서비스 중단으로까지 이어졌다. 이루다를 계기로 AI 윤리의 중요성을 인지하고, 각자가 실천할 수 있는 방안을 모색해야 한다는 지적이 커지고 있는 상황이다.

이에 방통위는 우선 이용자·사업자를 대상으로 AI윤리교육과 컨설팅을 강화한다는 계획이다. 교육 내용에는 이용자가 AI서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용할 수 있는 방안 등을 담을 계획이다.

내년부터는 신규예산을 확보해 AI윤리교육 지원대상을 이용자에서 사업자로까지 확대한다. 스타트업 등을 대상으로 서비스 설계시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업도 추진할 예정이다.
헤럴드경제

한상혁 방송통신위원회 위원장 [사진=연합뉴스]

<이미지를 클릭하시면 크게 보실 수 있습니다>


이와함께 방통위는 AI서비스의 규범 및 제도를 구체화해 나간다.

방통위는 앞서 2019년 11월 ‘차별금지, 인간존엄성 보호’ 등의 내용을 포함한 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표한 바 있다. 올해부터는 이를 실천하기 위한 구체적 사례‧방법 등을 사업자 등과 공유할 계획이다. 민간에서 현재 실천하고 있는 모범사례를 적극적으로 발굴해 이를 바탕으로 실행지침을 마련할 계획이다.

장기적으로 AI서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다는 방침이다.

방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고, 지난해 9월부터 센터 내에 법제 연구반을 구성해 운영하고 있다.

한상혁 위원장은 “AI서비스는 더 많은 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만, 올바른 윤리와 규범이 없는 AI서비스는 이용자 차별과 사회 갈등을 초래할 수 있다”며 “AI기술의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것”이라고 밝혔다.

sjpark@heraldcorp.com

- Copyrights ⓒ 헤럴드경제 & heraldbiz.com, 무단 전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.