사업자 포함 윤리교육·컨설팅 지원
한상혁 “제도 개선 부작용 줄일 것”
방송통신위원회가 인공지능(AI)의 윤리 실현을 위한 구체적 지침을 마련한다. 최근 AI 챗봇 ‘이루다’가 논란 끝에 서비스를 중단하는 등 AI의 윤리 문제가 사회적 과제로 대두됐기 때문이다.
방통위는 14일 “사람 중심의 AI 서비스가 제공되고, AI 서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록, 이용자·사업자 대상 교육·컨설팅을 지원하고, AI 윤리규범 등을 구체화해 제도개선을 추진할 계획”이라고 밝혔다.
방통위는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼고, 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진해 나간다는 방침이다.
이를 위해 올해부터 이용자에게 AI 서비스의 비판적 이해 및 주체적 활용에 대한 교육을 실시한다.
교육 내용에는 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용할 수 있는 방안 등을 담을 계획이다.
내년부터는 AI 윤리교육 지원대상을 이용자에서 사업자로까지 확대하고, 스타트업 등을 대상으로 서비스 설계 시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업도 추진한다.
중장기적으로는 이용자에게 피해를 야기한 AI 서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다는 방침이다.
방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고, 지난해 9월부터 센터 내에 법제 연구반을 운영하고 있다.
한상혁 방통위원장은 “AI 기술의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람 중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것”이라고 밝혔다.
홍진수 기자 soo43@kyunghyang.com
▶ [인터랙티브] 그 법들은 어떻게 문턱을 넘지 못했나
▶ 경향신문 바로가기
▶ 경향신문 구독신청하기
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.