이날 각국 장관들은 'AI 서울 정상회의 장관 성명'을 발표했다. 크게 안전·혁신·포용 부문으로 구성됐다. 안전의 핵심은 AI 위험을 측정할 수 있는 '프레임워크' 구축이다. 특히 AI가 안전 수준을 벗어나는 지점인 임계 값을 파악하는 데 주력하기로 했다. 아울러 행정, 복지, 교육, 의료 등 부문에서 AI를 적극 도입하는 혁신을 단행하기로 했다. 포용 부문에서는 AI 교육을 통한 디지털 격차를 해소하는 데 중점을 두기로 했다.
하지만 기조강연을 맡은 세계적 AI 석학 앤드루 응 스탠퍼드대 교수는 "AI로부터 다양한 기회를 얻기 위해서는 기술과 애플리케이션을 구분하고 그중 애플리케이션을 규제해야 한다"며 "가령 대형언어모델(LLM) 자체는 의료기기, 챗봇, 딥페이크 등 다양한 애플리케이션을 만들 수 있는 기술이며 이 중 어느 것이 좋고 나쁜 애플리케이션인지를 구분하는 게 중요하다"고 말했다. 이어 "규제가 성공하면 모든 사람이 패자가 된다"며 "AI 기술 접근성이 줄어들 수밖에 없어 오픈소스에 대한 규제 문제는 좀 더 세심하게 신경 써야 한다"고 덧붙였다.
[이동인 기자 / 정호준 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.