컨텐츠 바로가기

11.27 (수)

이슈 인공지능 시대가 열린다

"위험 측정해 관리"… 韓 'AI안전硏' 만든다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한국이 'AI 안전 연구소'를 한국전자통신연구원(ETRI)에 설립하기로 했다. ETRI 본원은 대전에 있다. 인공지능(AI) 안전 측정에 대한 관심이 높아지면서 적극 대응하기로 한 것이다. 이종호 과학기술정보통신부 장관은 22일 서울 성북구 한국과학기술연구원(KIST)에서 열린 AI 서울 정상회의 장관 세션 후 기자간담회에서 "오늘날 오픈AI, 구글 등 민간 AI 빅테크들의 끊임없는 노력 속에서 또 다른 혁신을 목격하고 있다"면서 "하지만 심각한 위험성에 대한 불안감도 감출 수 없다. 이를 위해 AI 안전 연구소를 ETRI에 설치할 예정"이라고 말했다. 연구소 출범은 세계적인 추세다. 미국은 컨소시엄을 출범했고 영국, 캐나다, 일본 등이 앞다퉈 설립하고 있다. 이에 대해 이 장관은 "AI 안전 연구소 간 협력을 강화하겠다"며 "아울러 워터마크 등 AI가 생성한 콘텐츠를 식별할 수 있는 조치를 취하고, 국제 표준 개발을 위한 협력을 강화할 것"이라고 말했다.

이날 각국 장관들은 'AI 서울 정상회의 장관 성명'을 발표했다. 크게 안전·혁신·포용 부문으로 구성됐다. 안전의 핵심은 AI 위험을 측정할 수 있는 '프레임워크' 구축이다. 특히 AI가 안전 수준을 벗어나는 지점인 임계 값을 파악하는 데 주력하기로 했다. 아울러 행정, 복지, 교육, 의료 등 부문에서 AI를 적극 도입하는 혁신을 단행하기로 했다. 포용 부문에서는 AI 교육을 통한 디지털 격차를 해소하는 데 중점을 두기로 했다.

하지만 기조강연을 맡은 세계적 AI 석학 앤드루 응 스탠퍼드대 교수는 "AI로부터 다양한 기회를 얻기 위해서는 기술과 애플리케이션을 구분하고 그중 애플리케이션을 규제해야 한다"며 "가령 대형언어모델(LLM) 자체는 의료기기, 챗봇, 딥페이크 등 다양한 애플리케이션을 만들 수 있는 기술이며 이 중 어느 것이 좋고 나쁜 애플리케이션인지를 구분하는 게 중요하다"고 말했다. 이어 "규제가 성공하면 모든 사람이 패자가 된다"며 "AI 기술 접근성이 줄어들 수밖에 없어 오픈소스에 대한 규제 문제는 좀 더 세심하게 신경 써야 한다"고 덧붙였다.

[이동인 기자 / 정호준 기자]

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.