컨텐츠 바로가기

04.19 (금)

'위험한 AI' 걸러내는 원천기술 개발·영향평가 추진된다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[머니투데이 백지수 기자]
머니투데이

최기영 과학기술정보통신부 장관 /사진=뉴스1

<이미지를 클릭하시면 크게 보실 수 있습니다>


정부가 인공지능(AI) 서비스의 안전성과 신뢰성을 확보하기 위해 AI 스스로 편향성을 제거하는 원천 기술 개발에 나선다. '고위험 인공지능'을 걸러내기 위한 인공지능 영향평가도 실시한다.

과학기술정보통신부는 13일 오후 서울 중구 서울중앙우체국에서 열린 대통령 직속 4차산업혁명위원회 전체회의에서 이같은 내용이 담긴 '신뢰할 수 있는 인공지능 실현전략'(이하 '실현전략')을 발표했다. 혐오표현 등이 문제가 됐던 AI 챗봇 '이루다' 사태가 재발하지 않도록 하고, 누구나 신뢰할 수 있는 '사람 중심 인공지능'을 실현하기 위한 정책이다.

이번 실현전략은 지난해 12월 정부가 발표한 '인공지능 윤리기준'의 실천 방안을 구체화하기 위한 스타트업 등 민간에 대한 재정·기술 지원과 인공지능이 국민 생활에 미치는 영향을 평가하는 것이 골자다. 특히 유럽연합(EU)이 지난달 제안한 '인공지능 법안'을 참고해 '고위험 인공지능'을 규제하는 내용이 담겼다.

고위험 인공지능은 국민의 생명·안전이나 기본권에 잠재적 위험을 미칠 수 있는 인공지능 알고리즘을 말한다. 안면 등 생체 인식 알고리즘이나 채용·인사평가·신용평가 등에 활용되는 알고리즘이 여기에 속한다. 정부는 실현 전략에 담긴 기술·제도·윤리 측면의 3대 전략과 10대 실행 과제를 2025년까지 단계적으로 추진할 계획이다.


'알고리즘 설명 가능한 AI' 만드는 원천기술 개발 추진

정부는 인공지능이 내린 판단에 대해 왜 그런 결과가 도출됐는지를 개발자들이 설명할 수 있도록 해 공정성을 담보하는 것을 실현전략의 목표로 삼고 있다. 이를 위해 '설명 가능한 인공지능'과 '공정한 인공지능', '견고한 인공지능'을 만들 수 있도록 하는 원천 기술 개발을 추진 중이라고 밝혔다. 현재 예비타당성조사가 진행 중이다. 인공지능의 의사 결정 과정을 유추할 수 있는 보고서를 생성할 수 있도록 하는 기술을 2026년까지 5년간 450억원을 들여 개발한다. AI 스스로 편향 요인을 식별해 편향 가능성을 진단할 수 있도록 하는 기술 개발에도 같은 기간 200억원을 들인다.

머니투데이

이루다

<이미지를 클릭하시면 크게 보실 수 있습니다>


정부는 민간 중소 스타트업에서 기본적인 인공지능 윤리기준을 확보할 수 있도록 하는 지원 사업도 추진한다. 인공지능 설계·개발 단계에서부터 개발사가 자가 검증을 할 수 있도록 관련 법·제도·윤리·기술적 요구사항을 한번에 확인할 수 있는 단권의 '개발 가이드북'을 제작 보급한다. 이를 통해 개발사가 스스로 신뢰성을 검증할 수 있는 자율 검증체계를 마련한다는 계획이다.

정부는 기술·재정 상황이 열악한 스타트업도 신뢰성 높은 인공지능을 구현하도록 데이터 확보와 알고리즘 학습·검증 과정을 통합 지원하는 플랫폼도 운영할 계획이다.


"고위험 AI인가" 영향 평가…이용시 고지 의무 등 입법도 검토

인공지능이 국민 생활에 미치는 영향을 종합 분석하는 '사회적 영향평가'도 도입한다. 아울러 국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 '고위험 인공지능' 범주도 정한다.

고위험 인공지능 서비스에 대해서는 제공 전 이용자 고지 의무를 인공지능 사업자에게 부여할 계획이다. 장기적으로 이용자들의 '이용 거부권', '결과 설명 요구권', '이의 제기권' 등을 제도화하려는 것이다. 이는 세계 최초로 제안된 인공지능 법규인 EU의 '인공지능 법안'에 담기기도 했다. 향후 국내 AI 기업들이 유럽 진출시 차질이 없도록 국내 인공지능 규제도 EU 수준으로 끌어올린다는 취지다.

정부는 인공지능 학습용 데이터의 신뢰성도 강화한다. 민관이 공통적으로 준수해야 할 학습용 데이터 신뢰 표준 기준을 마련하기 위해 민간과 머리를 맞댄다. 디지털 뉴딜로 추진되는 '데이터 댐' 구축 전 과정에서도 저작권이나 개인정보보호 등 법·제도 준수 여부를 검토해 데이터 품질을 높일 방침이다.

최기영 과기정통부 장관은 "최근 이루다 챗봇 사건이 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다고 생각한다"면서 "기업·연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란을 겪거나 이로 인해 국민이 피해 보지 않도록 인공지능 신뢰 확보 기준을 명확화하겠다"고 말했다.

백지수 기자 100jsb@mt.co.kr

<저작권자 ⓒ '돈이 보이는 리얼타임 뉴스' 머니투데이, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.