컨텐츠 바로가기

05.05 (일)

이슈 인공지능 윤리 논쟁

이루다 이후 AI, 개인정보 처리 사전동의·사후통제 조화 필요

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[파이낸셜뉴스] 국회입법조사처는 이루다를 통해 살펴본 인공지능 활용의 쟁점과 과제 를 다룬 이슈와 논점 보고서를 발간했다고 12일 밝혔다.

파이낸셜뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


인공지능 챗봇 이루다가 대화 도중에 차별 혐오 표현을 해 출시 20일 만에 서비스가 전면 중단됐는데. 이를 인공지능의 안정적 활용과 발전에 필요한 대안을 마련하는 계기로 삼아야 할 것으로 보인다.

가장 중요한 과제는 개인정보 처리의 사전동의와 사후통제의 조화로 꼽힌다. 이루다 개발자가 연인들의 대화를 인공지능 기계학습에 활용하는 과정에서 개인정보 보호법 의 사전동의를 형식적으로 거친 것이 문제가 될 수 있다.

앞으로 이러한 문제가 반복되지 않도록 사전동의 제도의 실효성을 높이고 사후통제를 강화해 사전 사후 조치의 조화를 이룰 필요가 있다. 아울러 개인정보 가명처리의 기준을 명확히 하고 특히 비정형 개인정보의 가명처리와 재식별 방지에 관한 방안을 마련할 필요가 있다.

또한 인공지능 윤리기준을 구체화할 필요가 있다. 인공지능은 사람들의 생각에 영향을 미치고 동시에 사람들의 반응을 지속적으로 기계학습해 알고리즘을 수정하기 때문에 인공지능 개발자와 이용자 모두 인공지능 윤리를 준수하는 것이 중요하다. 따라서 많은 사람들이 인공지능 윤리를 일상적으로 실천할 수 있도록 정부의 인공지능 윤리기준 을 구체화하고 발전시킬 필요가 있다.

적정 수준의 인공지능 학습데이터를 확보도 중요하다. 인공지능의 경쟁력은 데이터에 있지만 국내 데이터 시장은 태동 단계이고 특히 중소기업 스타트업의 학습데이터 확보 여건이 좋지 못하다. 따라서 필요한 분야에 적정 수준의 인공지능 학습데이터가 제공될 수 있도록 단기적으로 정부의 노력을 강화할 필요가 있다.

국회입법조사처는 "이루다 사태는 막연하고 추상적이었던 인공지능 활용에 대해서 구체적인 질문을 남겼다"며 "현재는 관계 기관의 조사와 일부 사용자의 법률분쟁으로 인해 위축된 상황이지만, 이번 사태가 우리나라 인공지능 산업의 걸림돌이 아니라 도약을 위한 디딤돌이 될 수 있도록 해야 한다"고 밝혔다.

이어 "이제부터 인공지능 생태계를 둘러싼 다양한 이해관계자들이 공감하고 동의할 수 있는 구체적이고 합리적인 법제도를 만들어 가는 노력을 시작해야 할 것"이라고 덧붙였다.

syj@fnnews.com 서영준 기자

※ 저작권자 ⓒ 파이낸셜뉴스. 무단 전재-재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.