컨텐츠 바로가기

11.23 (토)

이슈 인공지능 윤리 논쟁

정부, AI 윤리·신뢰성 확보 총력… 산학연 ‘추진 현황’ 공유

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
조선비즈

과기정통부가 11일 서울 중구 제네시스랩에서 ‘AI 윤리·신뢰성 강화를 위한 현장간담회’를 진행하는 모습. /윤진우 기자

<이미지를 클릭하시면 크게 보실 수 있습니다>



“챗GPT가 등장하면서 인공지능(AI)이 사람 수준의 지적 능력을 보유할 수 있다는 가능성을 누구든지 체감하게 됐다. 이에 따라 거짓 정보 생성, 편향성 강화 등 의도하지 않은 AI의 위험성에 대한 우려가 심화되고 있다.”


정부가 AI 윤리와 신뢰성을 확보하기 위한 구체적인 실행 방안을 마련한다. AI 윤리 기준을 넘어 규범 실천을 위한 계획과 방안을 만들어 AI 서비스 진흥과 그에 따른 부작용을 사전에 차단하기 위한 조치다.

과학기술정보통신부는 11일 서울 중구 제네시스랩에서 ‘AI 윤리·신뢰성 강화를 위한 현장간담회’를 열었다. 이번 간담회는 국무회의 안건인 ‘새로운 디지털 질서 정립 방안’의 후속 조치로 마련됐다.

과기정통부는 2020년 사람 중심의 AI 구현을 위해 AI 권고안을 반영해 3대 원칙·10대 요건으로 구성한 AI 윤리기준을 수립해 발표했다. 구체적으로 3대 원칙은 인간 존엄성, 사회의 공공선, 기술의 합목적성 등이다. 10대 요건은 인권 보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성 등이다. 이날 간담회는 과기정통부와 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)의 AI 윤리 실천 추진 방향 발표와 네이버, LG, 제네시스랩의 적용 사례 소개 등으로 진행됐다.

최동원 과기정통부 인공지능기반정책과 과장은 정부의 AI 윤리·신뢰성 정책 추진현황을 공유했다. 최 과장은 “우리나라 주도로 2019년 5월 OECD AI 권고안을 마련해 그해 6월 G20 정상 선언문에 관련 내용을 반영했다”라며 “AI 개발·활용 과정에서 인간의 기본권, 윤리 등에 미치는 영향을 평가해 AI의 위험성을 식별하고 대응 방안을 검토할 계획이다”라고 했다. 이어 “설명 가능성, 공정성 등 신뢰할 수 있는 AI의 기술적 기반을 마련하기 위해 정부는 2026년까지 설명 가능한 AI 4개 과제와 공정한 AI 2개 과제 등에 650억원을 투자한다”라며 “산업 육성과 윤리·신뢰성 확보를 위한 ‘인공지능법’ 제정을 지원하고 있다”라고 했다.

문정욱 정보통신정책연구원 센터장은 과기정통부와 공동 개발한 AI 윤리기준의 ‘자율점검표’를 소개했다. AI 서비스를 기획 및 운영자가 스스로 점검할 수 있는 자율점검표가 어떻게 활용되는지 등이다. 문 센터장은 “가짜 정보 생성, 일자리 파괴 등 의도하지 않는 다양한 AI의 문제점도 나오고 있다”라며 “글로벌 정합성, 비교 가능성 등을 고려한 AI 윤리 영향 평가 프레임워크를 개발해 글로벌 규범 정립을 주도할 필요가 있다”라고 했다.

이강해 한국정보통신기술협회 단장은 AI 윤리기준 중 기술적으로 구현 가능한 4가지의 핵심 요건을 기반으로 개발자가 참고할 수 있는 기술적 요구사항을 담은 ‘개발안내서’를 안내했다. 이 단장은 “미국의 경우 공공사회, 의료, 자율주행 분야별 개발안내서를 정립해 다양하게 활용하고 있다”라며 “AI 서비스 개발 및 운영 기업이 업무 환경과 개발 목적에 따라 활용 가능한 신뢰할 수 있는 AI 개발 안내서를 마련했으며 분야별 특화된 개발 안내서 등을 추가로 확대해 나갈 계획이다”라고 했다.

송대섭 네이버 이사는 서울대 AI 정책 이니셔티브와 함께 만든 ‘네이버 AI 윤리 준칙’을 소개했다. 송 이사는 “네이버는 AI 윤리 준칙 관점에서 네이버 AI 서비스에 담긴 인간 중심의 가치를 재조명하고, AI에 대한 우려사항을 살펴보며 개선할 수 있는 프로세스인 ‘CHEC’를 만들었다”라며 “해당 프로세스를 통해 개별 AI 서비스 부서에 제기될 수 있는 이슈를 최소화하고, 현실적인 자문 의견 전달을 통해 윤리 준칙을 실천하고 있다”라고 했다.

김유철 LG AI연구원 부문장은 ‘LG AI 윤리원칙’을 중심으로 AI 윤리·신뢰성 강화를 위한 기업의 자율적 노력과 향후 계획을 발표했다. 김 부문장은 “LG는 인간존중, 공정성, 안전성, 책임성, 투명성을 원칙으로 신뢰할 수 있는 AI를 만들기 위한 거버넌스 구축과 기술 및 정책 연구를 진행하고 있다”라며 “다양한 사용 사례를 기반으로 점검 항목을 표준화해 자동화 시스템을 구축하고 있다”라고 했다.

이영복 제네시스랩 대표는 채용 분야에서 활용되는 AI의 신뢰성 확보를 위한 개발안내서를 적용한 현황을 공유했다. 이 대표는 “제네시스랩의 뷰인터HR은 AI 기술을 활용한 면접 솔루션으로 자기소개서 분석, 지원자의 비언어적 행동 분석, 지원자의 영상면접 내용 분석 등에 활용된다”라며 “서울시, 병무청, 육군, 해군, 해병대, LG유플러스, 한국자산관리공사 등에서 뷰인터HR을 활용하고 있으며 정부부처와 공공기관이 AI를 빠르게 도입해야 신뢰할 수 있는 AI가 확산할 것으로 생각한다”라고 했다.

박윤규 과기정통부 2차관은 “챗GPT 등장 이후 초거대·생성형 AI가 산업과 일상 속으로 빠르게 확산되면서 AI 윤리·신뢰성 확보는 기업 생존과 직결된 문제가 됐다”라며 “AI 윤리·신뢰성 이슈가 새로운 국면에 접어드는 만큼 정부는 AI 윤리·신뢰성을 확보하기 위해 더 많은 노력을 기울이겠다”라고 했다.

윤진우 기자(jiinwoo@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.