27일 판교 R&D 센터 'AI 안전연구소' 개소식
AI 안전 연구 전담 조직
국제 AI 안전연구소 네트워크 일원
과학기술정보통신부 제공 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
전 세계적 인공지능(AI) 규제에 대응해 국내 기업들의 해외 진출을 지원하고 가짜뉴스(허위정보)나 딥페이크 등 기술 악용을 방지할 국가 첫 AI 안전연구소가 공식 출범했다.
과학기술정보통신부는 27일 경기 성남시 판교 글로벌 연구개발(R&D)센터에서 'AI 안전연구소' 개소식을 개최했다고 밝혔다. 류광준 과기정통부 과학기술혁신본부장, 염재호 국가AI위원회 부위원장, 김명주 AI 안전연구소장 등 정부 인사와 오승필 KT 최고기술책임자(CTO), 오혜연 한국과학기술원(KAIST) AI 연구원장, 방승찬 한국전자통신연구원(ETRI)장 등 산·학·연 관계자 40여명이 참석했다.
AI 안전연구소는 AI의 기술적 한계, 인간의 AI 기술 오용, AI 통제력 상실 등으로 일어날 수 있는 위험에 체계적·전문적으로 대응하기 위해 설립된 AI 안전 연구 전담 조직이다. 산·학·연 기관이 AI 안전 분야 연구 협력과 정보 교류를 하는 허브이자 현재 10개국이 참여 중인 '국제 AI 안전연구소 네트워크' 일원이다.
국가 AI 위원회 글로벌 자문위원인 요슈아 벤지오 캐나다 몬트리올대 교수는 영상 축사에서 AI 안전연구소의 역할에 대해 업계와 협업을 통한 AI 위험 평가 방법 연구, 업계 등에 AI 안전성 요건 수립 지원, 국제 협력을 통한 AI 안전 체계 조화를 꼽았다. 엘리자베스 켈리 미국 AI 안전연구소장은 "한국과 미국의 AI 안전연구소가 AI 위험을 줄이고 혜택을 극대화하며 혁신을 촉진하는 공통된 과학적 기준을 구축해 나가자"고 강조했다.
김명주 AI 연구소장은 "AI 활용으로 발생할 수 있는 제반 위험 평가와 이를 예방하고 극소화하기 위한 정책과 기술을 개발‧보급하고 국내외 연대를 강화해 나가겠다"며 "연구소는 규제 기관의 성격이 아니라 국내 AI기업들이 글로벌 경쟁력을 확보하는 데 장애가 되는 위험 요소들을 최소화하도록 지원하는 협력 기관으로 역할을 하겠다"고 말했다.
AI 안전연구소는 이날 삼성·네이버·카카오·SK텔레콤·KT·LG AI연구원·코난테크놀로지·뤼튼테크놀로지스·포티투마루·라이너 등 산·학·연 24곳과 '대한민국 AI 안전 컨소시엄'을 꾸리기 위한 업무 협약(MOU)을 체결했다. 정책 연구와 기술 협력 등을 위한 협력 방안을 구체화해나가기로 했다.
유상임 과기정통부 장관은 "미국, 영국, 일본, 싱가포르, 캐나다 등 주요국이 모두 AI 안전연구소를 설립하고 전례 없이 기민하고 체계적인 국제 AI 안전 협력 체계가 구축되고 있다"며 "AI 안전연구소를 중심으로 산·학·연 연구 역량을 결집해 AI안전의 기술‧정책적 역량을 조속히 확보하겠다"고 말했다.
※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.
- 이메일 : jebo@cbs.co.kr
- 카카오톡 : @노컷뉴스
- 사이트 : https://url.kr/b71afn
저작권자 © CBS 노컷뉴스 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.