AI 윤리 확보 위한 자율적 활동 사례 공유
(사진=과기정통부) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[이데일리 김국배 기자] 과학기술정보통신부는 26일 서울 중구 포스트타워에서 정보통신정책연구원(KISDI) 등과 제3차 윤리정책 포럼을 개최했다.
인공지능(AI) 윤리정책 포럼은 AI의 윤리적 개발과 활용 논의를 촉진하기 위해 지난 2월 출범했다. 산업계를 비롯해 교육, 법제도, 공공 등 다양한 분야의 전문가 30명이 제1기 포럼 위원으로 활동 중이다. 이날 포럼에서는 AI 스타트업의 AI 윤리 확보를 위한 자율적인 활동 사례가 공유됐다.
AI 챗봇 ‘이루다’를 개발한 스캐터랩의 김종윤 대표는 ‘AI 챗봇 윤리 점검표’ 최종안을 발표했다. 스캐터랩은 친구처럼 일상 대화를 나눌 수 있는 AI 챗봇 ‘이루다 2.0’의 오픈 베타 테스트를 진행하고 있다. 스캐터랩의 AI 챗봇 윤리 점검표는 이루다를 개발·운영하는 과정에서 기업 윤리를 실현할 수 있도록 점검 항목을 제공한다.
AI 영상인식 솔루션 기업 알체라는 AI 기반 산불 감지 솔루션의 기술적 신뢰성 검증 결과를 공개했다. ‘신뢰할 수 있는 AI 개발 안내서’를 알체라의 특성에 맞게 변형해 현장에 적용하는 방식으로 이뤄졌다. AI 기반 글쓰기 솔루션을 제공하는 뤼튼테크놀로지스의 이세영 대표는 ‘뤼튼 AI 작문 도구 윤리 점검표’ 개발 취지와 초안을 공유했다.
이 초안은 지난 2월 포럼 출범식에서 공개된 ‘AI 윤리 자율점검표’를 회사 특성에 맞게 변형하는 방식으로 만들어졌다. 윤리점검표의 점검항목 후보군(pool)을 참고해 작문 보조 분야에 적합한 점검 항목을 만들어 내부 지침으로 활용하는 것이 목적이다.
과기정통부는 이번 포럼의 결과물 등을 종합해 챗봇, 위기상황 감지, 작문 등 해당 서비스 분야의 다른 기업들이 일반적으로 활용할 수 있는 분야별 점검 항목 후보군을 공개할 방침이다. 엄열 과기정통부 국장은 “혁신을 저해하지 않으면서 국민이 믿고 이용할 수 있는 AI 제품·서비스를 개발하기 위해서는 기업 스스로 AI 윤리를 실천하고자 하는 노력이 중요하다”며 “현장에서 공감할 수 있는 자율 규제 환경을 조성하기 위해 적극 지원하겠다”고 말했다.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.