'인간성을 위한 AI' 목표로 AI 윤리기준 확정
AI 개발·활용에 지켜야 할 3대 원칙·10대 핵심요건
인간의 존엄성·사회의 공공선·기술의 합목적성
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[아시아경제 한진주 기자] 정부가 인공지능(AI) 윤리기준을 마련했다. 사람 중심의 인공지능 구현을 위해 '인간성'을 최고 가치로 설정해 AI 개발·활용 전 단계에서 참조할 수 있는 기준을 정립했다.
23일 과학기술정보통신부와 정보통신정책연구원은 4차산업혁명위원회 전체회의에서 AI 개발·활용 방향을 제시하기 위한 사람이 중심이 되는 '인공지능(AI) 윤리기준'을 마련했다고 밝혔다.
AI 윤리기준은 AI 개발·활용 전 단계에서 지켜야 할 3대 기본원칙과 10대 요건을 담았다. AI 기술이 급속도로 확산되면서 '어떻게 활용할 것인가'는 전 세계의 화두였고 OECD와 유럽연합, 기업, 연구기관 들이 AI 윤리원칙을 발표했다. 과기부는 4월부터 AI 윤리연구반 등을 통해 '인간성을 위한 인공지능'을 목표로 하는 윤리기준을 초안을 마련, 공청회 등을 거쳐 기준을 확정했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
AI 윤리기준의 3대 기본원칙은 ▲인간의 존엄성 원칙 ▲사회의 공공선 원칙 ▲기술의 합목적성 원칙을 준수하는 것이다. AI가 인간의 생명·정신·신체 건강에 해가 되지 않는 범위에서 개발되어야하며, 사회적 약자의 접근성을 보장하고 인류의 보편적 복지를 향상시킬 수 있어야 한다. 인류의 삶에 필요한 도구라는 목적에 부합되게끔 개발되어야 하며 그 과정도 윤리적이어야 한다는 것이다.
3대 원칙을 실천하기 위해 갖춰야 할 10대 핵심요건은 ▲인권 보장 ▲프라이버시 보호 ▲다양성 존중 ▲침해금지 ▲공공성 ▲연대성 ▲데이터 관리 ▲책임성 ▲안전성 ▲투명성이다. 인간의 권리와 자유를 침해하지 않고 개인정보 오용을 최소화해야하며, 성·연령·지역·인종 등 편향과 차별을 최소화하는 '다양성 존중', 인간에게 직접적인 해를 입히는 목적으로는 활용하지 않아야 한다는 것이 '침해금지' 요건이다. 책임성은 AI 설계·개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야한다는 것이며, AI 활용 과정에서 오류나 침해가 발생할 경우 사용자가 작동을 제어할 수 있는 '안전성'을 갖춰야 한다고 명시했다.
과기부는 윤리기준을 알리기 위해 개발자와 공급자, 이용자 등 주체별 체크리스트를 개발하고 AI 윤리교육 프로그램을 마련하는 등 실천방안을 추진하기로 했다. 향후 AI 윤리기준을 기본으로 다양한 이해관계자들을 참여시켜 윤리 이슈를 지속적으로 논의하고 해당 기준을 발전시켜나가겠다는 방침이다.
최기영 과기정통부 장관은 "11월27일 윤리기준 초안을 발표한 후 공청회 등 폭넓은 공개 의견수렴을 거쳐 인공지능 윤리기준이 마련된 만큼 윤리기준이 인공지능 윤리 이슈에 대한 우리사회의 토론과 숙의의 시작점이자 사람 중심의 인공지능으로 나아가는 플랫폼이 되도록 노력하겠다"고 말했다.
한진주 기자 truepearl@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.