안전성, 투명성, 개인정보보호 등 AI 위험 체계 구축
AI 윤리원칙 고도화 및 실무 이행 지침 제작
<이미지를 클릭하시면 크게 보실 수 있습니다> |
RAIC는 AI 기술이 사용자에게 유익한 가치를 제공할 수 있도록 관련된 잠재적 위험을 최소화하기 위한 연구를 수행한다. 안전성, 투명성, 개인정보보호 등 AI가 악용될 수 있는 분야에서 위험 수준에 대한 관리 체계를 구축한다. 더불어 사내 적용 중인 AI 윤리원칙을 고도화하는 동시에 실무에서 즉시 이행 가능한 수준의 지침으로도 제작한다.
KT는 지난해 AI 윤리원칙을 수립하고 통신 AI 산업의 발전을 위한 백서를 발간한 바 있다. 주요 내용은 △AI 기술과 제품 개발에서 공정성, 비차별, 투명성, 해석 가능성의 원칙 준수 △표준화와 개방형 생태계 통해 자원과 기술 공유 강화 △책임감 있는 AI 개발을 위한 사회적 책임 강화 등이다.
최근 EU에서 AI 법이 통과되고 오는 5월 AI 서울 정상회의가 개최되는 등 AI 규범에 관한 국제적 논의와 공조가 활발하게 진행되고 있다. 이에 맞춰 KT는 세계 최고 수준의 AI 연구 기관 캐나다 벡터연구소와 ‘책임감 있는 AI(Responsible AI)’를 주요 어젠다로 두고 협력하고 있다.
KT는 이번 RAIC 신설로 AI를 사회가 지향하는 가치와 목적에 사용하도록 하는 거버넌스 체계를 확립한다. 이는 지난 MWC 2024에서 선포한 ‘AICT 회사’로서의 경영 비전을 구체화하기 위한 방안이다.
KT는 RAIC에 △AI 윤리 △정책 개발 및 협력 △소프트웨어 엔지니어링 및 데이터 등 다양한 분야의 전문가를 신규 영입한다.
배순민 KT RAIC장(상무)는 “KT는 투명성, 공정성, 안전성 등 윤리적 가치를 실현해 AI가 일상의 삶과 산업을 혁신하고 사회에 긍정적인 영향을 미치는 기술이 될 수 있도록 ‘책임감있는 AI’를 지속 강화해 나갈 것”이라고 밝혔다.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.