컨텐츠 바로가기

12.04 (수)

이슈 인공지능 윤리 논쟁

'이루다 사태'가 남긴 숙제…정부, 'AI 윤리' 실현전략 마련

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

법제도·윤리·기술적 요구사항 등

종합적으로 담은 개발 가이드북 제작·보급

원스톱 지원방안 마련…공공 학습데이터 제작

아시아경제

혐오 발언과 개인정보 유출 논란 등으로 종료된 AI 챗봇 '이루다'


[아시아경제 차민영 기자] 지난 1월 스타트업 스캐터랩이 야심차게 선보인 인공지능(AI) 챗봇 '이루다'. '당신의 첫 AI 친구'라는 캐치프레이즈로 1020 사이에서 인기를 모은 이루다는 서비스 시작 2주만에 각종 논란에 이어 결정적으로 개인정보유출 혐의 등으로 문을 닫았다. 스캐터랩이 이루다를 학습시키는 과정에서 카카오톡 대화를 사용자 동의 없이 무단 수집했기 때문이다. AI 기술의 빠른 발전에도 사회적 논의가 충분치 않고 윤리기준이 모호하다는 지적에 정부도 숙제를 안게 됐다.


'이루다 사태'를 계기로 AI의 신뢰성에 대한 논의가 급물살을 타면서 정부도 구체적인 실천방안 마련에 나섰다. AI 기술이 초기 단계라는 점에서 기본적으로 민간의 자율 규제에 초점이 맞춰졌다.


신뢰할 수 있는 인공지능 실현전략

과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 사람이 중심이 되는 인공지능을 위한 '신뢰할 수 있는 인공지능 실현전략'을 발표했다.


이번 전략은 지난해 12월 발표된 '인공지능 윤리기준'의 실천방안을 구체화하는 후속 조치다. 민간서 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축하며 재정·기술력이 부족한 스타트업 등에 대한 지원책을 담았다.


아시아경제

기존 인공지능 윤리기준에는 '인간성을 위한 인공지능'을 위해 모든 사회구성원이 지켜야 할 3대 원칙(인간 존엄성, 사회 공공선, 기술의 합목적성)이 언급됐다. 또한 책임성, 안정성, 투명성 등의 10대 요건을 포함한다.


과기정통부는 '누구나 신뢰할 수 있는 인공지능, 모두가 누릴 수 있는 인공지능 구현'을 비전으로 제시했다. 기술, 제도, 윤리 측면의 3대 전략과 10대 실행과제를 통해 2025년까지 단계적으로 추진한다. 2025년까지 책임있는 인공지능 활용 세계 5위, 신뢰있는 사회 세계 10위, 안전한 사이버국가 세계 3위를 달성하는 것을 목표로 한다.


아시아경제

구체적으로 인공지능 제품·서비스 구현단계별 신뢰 확보 체계를 마련한다. 민간에서 인공지능 제품?서비스를 구현하는 단계에 따라, 기업, 개발자, 제3자 등이 신뢰성 구현을 위해 참조할 수 있는 신뢰 확보 기준과 방법론을 제시한다. 구체적인 개발 가이드북을 제작해 보급한다.


또 민간의 인공지능 신뢰성 확보를 지원하기 위해 데이터 확보부터 알고리즘 학습, 검증까지 통합 지원하는 플랫폼을 운영한다. 학습용 데이터와 컴퓨팅 자원을 지원하는 '인공지능 허브(AI Hub)' 플랫폼에서 검증체계에 따른 신뢰 속성별 수준을 분석해준다. 실제 환경과 같은 형태로 테스트도 지원한다.


정부, 신뢰 확보 표준 기준 마련

인공지능의 설명가능성, 공정성, 견고성 제고를 위한 원천기술 개발도 추진한다. 향후 5년간 집행할 기술 개발 예산으로는 각각 450억원, 200억원 등을 배정했으며 견고 분야 기술개발은 기획 단계에 있다. 김경만 과기정통부 인공지능기반정책과장은 "AI 기술의 특징은 왜 그런 의사결정 했는지 모르는 것이지만, 이마저도 설명 가능하게 만드는 것이 대세적인 흐름"이라고 설명했다.


학습데이터의 신뢰성도 높인다. 민?관이 인공지능 학습용 데이터 제작공정에서 공통적으로 준수해야할 신뢰 확보 검증지표 등의 표준 기준을 만든다. 고위험 인공지능에 대한 신뢰 확보도 추진한다. 인공지능의 위험을 미리 고지하게 만들고 고지 이후에는 '이용 거부', '결과 설명', '이의 제기'가 가능하게 한다. 예컨대 AI 채용 심사 프로세스와 관련해서 이의 제기가 가능하도록 한다는 얘기다.


사회적 영향평가 실시…윤리교육

인공지능 영향평가도 실시한다. 국민생활 전반에 미치는 영향을 종합?체계적으로 분석하고 대응하기 위해 '지능정보화기본법' 제56조에 규정된 사회적 영향평가를 도입할 계획이다.


관계부처와 연계해 사회 전반 인공지능 윤리 교육도 강화한다. 인공지능 윤리교육 총론을 마련하고 연구?개발자, 이용자 등이 업무, 일상생활 등의 속에서 윤리 준수 여부를 자율점검할 수 있는 체크리스트를 개발해 보급한다.


아시아경제

최기영 과기정통부 장관은 "최근 발생했던 챗봇 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다고 생각한다"며 "과기정통부는 기업, 연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란을 겪거나 이로 인해 국민이 피해 보지 않도록 인공지능 신뢰 확보 기준을 명확히 하겠다"고 밝혔다.


이어 "기술, 재정적으로 부족한 중소기업 등이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련하는 등 사람이 중심이 되는 인공지능 강국 실현을 위해 동 전략을 차질 없이 추진해나갈 계획"이라고 덧붙였다.



차민영 기자 blooming@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.