컨텐츠 바로가기

03.19 (화)

"안전한 AI 만들려면"…전세계 법학자들이 말하는 AI 윤리

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
안전하고 신뢰할 수 있는 인공지능(AI)을 만들기 위해선 국가·문화권 별로 다른 윤리 기준을 세워야 한다는 주장이 제기됐다. 20일 서울 성북구 고려대 CJ법학관 베리타스홀에서 열린 'AI 윤리와 데이터 거버넌스 토론회'에서 제시카 필드 하버드대 로스쿨 교수는 "AI 윤리는 그 나라의 문화·언어·조직적 맥락 등을 이해하는 것이 전제돼야 한다"고 말했다.

중앙일보

제시카 필드 하버드대 로스쿨 교수는 이날 고려대에서 '원칙에 기반한 인공지능 보고서'를 발표하고 인공지능 윤리 연구 결과를 발표했다. AI 윤리에 대한 연구가 절대적으로 부족했는데, AI 윤리에도 '표준', '기준'을 만들어야 한다는 것이 주된 주장이다. [사진 오픈넷]

<이미지를 클릭하시면 크게 보실 수 있습니다>


이날 토론회에는 AI 윤리를 연구하는 세계 각국의 법학자들이 한자리에 모였다. 고도의 AI 기술과 알고리즘이 상용화되고 있는데, 이와 관련한 윤리, 프라이버시의 기준을 어떻게 마련하고 합의해야 하는지 논의하기 위해서다. 고려대 로스쿨은 2016년부터 하버드 법대 버크먼 클레인 센터와 이 분야에 대해 함께 연구하고 있다. 정보기술(IT)과 인터넷이 사회에 미치는 영향, 그리고 아시아에서의 AI 발전 등과 관련해서다.

필드 교수는 이날 고려대에서 '원칙에 기반한 인공지능 보고서'를 발표하고 인공지능 윤리 연구 결과를 발표했다. AI 윤리에 대한 연구가 절대적으로 부족했는데, AI 윤리에도 '표준', '기준'을 만들어야 한다는 것이 주된 주장이다.

필드 교수는 AI 윤리와 관련해 여덟 가지 주제로 나눠서 설명했다. ▶개인정보 ▶책임 ▶안전·보안 ▶투명성과 설명성 ▶공정성과 차별금지 ▶인간의 기술 통제 ▶전문적인 책임이 그것이다. 그는 "AI 윤리는 그 나라의 문화·언어·조직적 맥락 등을 이해하는 것이 전제조건이 돼야 한다"며 "AI 규범이 생기는 것이 능사가 아니라 이를 시작으로 다른 거버넌스(지배구조)에 대한 논의도 시작할 수 있다"고 지적했다.

마르셀로 톰슨 홍콩대 법대 교수는 "불법 콘텐트를 처리하는 절차를 효과적이고 투명하게 관리해야 한다"며 "AI 규범을 다루는 이들은 꾸준한 교육을 받아야 한다"고 주장했다. 이어 "사용자를 불법 콘텐트로부터 보호하는 것은 해당 회사에 가장 큰 책임이 있다는 것을 분명히 해야 한다"고 덧붙였다.

AI 윤리는 전 세계적인 화두다. EU도 AI 관련 기술을 보건·교통과 같은 '고위험 분야 기술'로 지정하는 방안을 검토하고 있다. 안면 인식 기술도 오남용되지 않게 새로운 규제를 적용하는 것도 고려 중이라고 블룸버그가 지난 16일 전했다. 문재인 대통령도 지난 16일 과학기술정보통신부·방송통신위원회 업무보고에서 "모든 국민이 AI의 혜택을 고루 안전하게 누릴 수 있도록 AI 윤리에도 특별한 관심이 필요하다"고 강조한 바 있다.

하선영 기자 dynamic@joongang.co.kr

중앙일보 '홈페이지' / '페이스북' 친구추가

이슈를 쉽게 정리해주는 '썰리'

ⓒ중앙일보(https://joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.