컨텐츠 바로가기

12.04 (수)

이슈 인공지능 윤리 논쟁

[추석때 읽는 AI 트렌드①] AI 시대 윤리·신뢰성 제고의 중요성

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
이투데이

<이미지를 클릭하시면 크게 보실 수 있습니다>


인공지능(AI)은 의료, 교육, 법률, 보안, 교통 등 다양한 분야에서 혜택을 가져다주고 있지만 인간의 권리와 자유를 침해하거나, 사회적 불평등과 차별을 악화시키거나 인간의 책임감과 창의성을 약화시킬 수도 있다는 지적이 제기된다. 따라서 AI는 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다는 제언이 나온다.

AI 윤리란 인공지능의 도덕적이고 책임감 있는 사용을 규율하는 일련의 원칙, 가치 및 지침으로 정의할 수 있다. AI 윤리는 AI의 사회적 영향을 고려하고, AI 시스템이 윤리적 기준과 인간의 가치에 부합하는 방식으로 개발, 배포 및 사용되도록 보장하는 것을 목적으로 한다. AI 신뢰성이란 AI 시스템이 예측 가능하고 검증 가능하며, 안전하고 견고하며, 공정하고 투명하며, 인간의 감독과 개입이 가능한 특성을 의미한다. AI 신뢰성은 AI 윤리를 실현하기 위한 필수적인 요소이다.

AI는 인간의 삶과 사회에 많은 영향을 미칠 수 있다. 예를 들어, AI는 의료 진단이나 치료에서 인간의 생명을 구할 수 있는 반면 잘못된 판단이나 오류로 인해 인간의 생명을 위협할 수도 있다.

또한 AI는 법률 판결이나 정책 결정에서 인간의 권리와 정의를 보장할 수 있지만 반대로 편견이나 차별로 인해 인간의 권리와 정의를 침해할 수도 있다. 따라서 AI는 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다.

이 때문에 AI 윤리와 신뢰성을 실현하기 위해서는 다양한 이해관계자들이 협력하고 소통해야 한다. 국제적으로 AI 윤리와 신뢰성에 대한 논의가 활발하게 진행되고 있다.

유엔교육과학문화기구(UNESCO)는 2021년 11월 25일 제41차 총회에서 193개 회원국의 만장일치로 '인공지능 윤리 권고’를 채택했다. 이 권고는 AI의 건전한 발전을 보장하는 법적 인프라 구축을 안내할 공통 가치와 원칙을 정의한다.

유럽연합(EU)은 2021년 4월 '인공지능에 관한 규제 제안’을 발표했다. 이 제안은 AI 시스템의 위험 수준에 따라 ‘금지·고위험·제한된 위험·최소 위험’ 등 4단계의 규제를 적용할 계획이다

미국은 2021년 5월 '인공지능 기술의 책임 있는 사용을 위한 국가 전략’을 발표했다. 이 전략은 AI 기술의 혁신과 경쟁력을 강화하면서도 인권,민주주의, 공정성 등의 가치를 존중하고 보호하기 위한 방안을 제시한다.

국내에서도 지난달 25일 디지털 공동번영사회의 가치와 원칙을 담은 디지털 권리장전을 발표했다.

이러한 국제적이고 다양한 논의와 협력은 AI 윤리와 신뢰성을 보다 실질적이고 구체적으로 구현하기 위한 필요한 과정이다. 글로벌 AI 기업들은 다양한 노력을 하고 있다

IBM은 2018년 'AI 윤리 원칙’을 발표했다. 이 원칙은 ‘AI는 인간의 가치와 권리를 존중하고 보호해야 한다’, ‘AI는 투명하고 설명 가능해야 한다’, ‘AI는 신뢰할 수 있고 안전하며 책임감 있게 개발되고 운영돼야 한다’ 등으로 구성돼 있다. IBM은 이 원칙을 실천하기 위해 AI 시스템의 편향성, 설명 가능성, 안전성 등을 평가하고 개선할 수 있는 도구와 프레임워크를 개발, AI 시스템의 편향성을 감지하고 있다.

구글도 2018년 'AI 원칙’을 발표했다. 이 원칙은 ‘AI는 사회적 이익을 증진시켜야 한다’, ‘AI는 안전하고 신뢰할 수 있어야 한다’, ‘AI는 사람과 협력하고 존중해야 한다’, ‘AI는 과학적인 엄격성과 기술적 우수성을 추구해야 한다’ 등으로 구성돼 있다. 구글은 이 원칙을 실천하기 위해 AI 시스템의 편향성, 설명 가능성, 안전성 등을 평가하고 개선할 수 있도록 AI 모델의 성능과 편향성을 분석하는 오픈소스 도구 TensorFlow Model Analysis4을 개발했다.

마이크로소프트는 2019년 'AI 윤리 가이드라인’을 발표했다. 이 가이드라인은 ‘AI는 인간 중심이어야 한다’, ‘AI는 공정하고 비차별적이어야 한다’, ‘AI는 개인 정보와 보안을 보호해야 한다’, ‘AI는 투명하고 설명 가능해야 한다’ 등으로 구성되어 있다. MS는 이 가이드라인을 실천하기 위해 AI 시스템의 윤리, 안전성 등을 평가하고 개선할 수 있도록 AI 공정성 진단 시스템인 Fairlearn을 공개한 바 있다.

국내에서는 업스테이지가 AI 윤리와 신뢰성에 대한 뛰어난 모범사례를 보여주고 있다. 업스테이지는 'Making AI Beneficial’이라는 비전을 바탕으로 AI로 세상을 더욱 이롭게 하기 위해 기업의 문제들을 AI 기술을 통해 혁신하고 있다.

AI업계 관계자는 “AI 윤리와 신뢰성을 실현하기 위해서는 첨단 기술을 활용하는 기업들이 앞장서 윤리준수를 위해 협력하고 소통해야 한다”며 “기술 개발과 함께 AI가 인류와 공존하기 위해서 AI 윤리를 실천하는 방법과 모범을 기업들이 제시함으로써 미래를 더 활짝 열 수 있길 기대한다”고 했다.

[이투데이/김나리 기자 (nari34@etoday.co.kr)]

▶프리미엄 경제신문 이투데이 ▶비즈엔터

이투데이(www.etoday.co.kr), 무단전재 및 수집, 재배포금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.