경기도 성남시 분당구 네이버 사옥 모습. 연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
생성 인공지능(AI)에 대한 글로벌 규제 논의가 속도를 내는 가운데 개발 기업이 스스로 브레이크를 걸고 있다. 생성AI가 촉발할 수 있는 위협을 안정적으로 관리할 수 있어야 AI 사업이 지속 가능하다는 판단에서다.
━
무슨일이야
네이버는 3일 AI 안전성 연구를 전담하는 조직인 ‘퓨처 AI 센터’를 최수연 네이버 대표 직속으로 신설했다고 밝혔다. 수십 명 규모로 구성된 퓨처 AI센터는 하정우 네이버클라우드 AI 이노베이션 센터장이 이끈다. 네이버는 생성 AI 모델인 ‘하이퍼클로바X’를 서비스하고 있다. 퓨처 AI 센터는 AI 안전성을 확보할 수 있는 기술을 연구하고, 윤리 정책도 수립할 예정이다. 서울대, KAIST, 캐나다 토론토대 등 국내외 연구기관과 협업도 진행할 계획이다.
━
왜 중요해
생성 AI 기술에 대한 규제론이 힘을 받기 시작하자, 기업들 스스로 속도조절을 시작했다. 지난해 하반기 미국, 유럽에서 정부 주도로 AI 규제에 대한 논의가 본격화됐다. AI 기술이 안전한지가 AI 사업 지속성에 연동되기 시작한 것. 유럽연합(EU) 27개 회원국 대표는 지난해 12월 벨기에 브뤼셀에서 ‘AI 법’(AI Act)으로 알려진 규제 법안에 합의했다. “범용 AI(GPAI, 다양한 용도로 사용할 수 있는 강력한 AI 모델)를 개발하는 기업은 AI 모델의 학습 과정을 보고해야 한다”는 내용까지 포함한 강력한 법이다. 지난해 10월 미국에서도 ‘AI 안전성 평가 의무화’를 요구하는 조 바이든 정부의 첫 AI 행정 명령이 발표됐다. 하정우 센터장은 “안전하고 책임감 있는 AI를 기반으로 지속 가능한 AI 생태계를 구축할 수 있는 역량이 기업 AI 경쟁력의 중요한 요소로 주목받고 있다”고 말했다.
━
글로벌은 어때
AI 안전성 확보를 위한 글로벌 협력 움직임도 나타나고 있다. 로이터=연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
AI 기술 개발을 주도하는 글로벌 빅테크들도 AI 안전성을 주요 이슈로 보고 있다. 구글은 2018년부터 AI 기술을 윤리적으로 검토하고 편향성 등을 점검하는 ‘거버넌스 팀’을 구성했다. ‘책임감 있는 AI를 위한 보고서’도 매년 제작해 공유하고 있다. 블룸버그에 따르면 오픈AI도 지난달 18일 AI 모델을 안전하게 개발하고 배포하기 위한 접근 방식을 다룬 ‘준비 프레임워크(Preparedness Framework)’를 발표했다. AI로 인해 발생할 수 있는 위험을 모니터링하고, 아직 출시되지 않은 모델의 위험성을 평가하는 역할을 한다. 준비팀은 AI 능력이 위험수준에 도달했다고 판단하면 회사에 경고한다.
AI 안전성 관련 국제적인 협력도 강화되는 추세다. 경쟁이 치열하고, 기술의 파급력이 크기 때문에 어느 한 기업만 안전성을 준수한다고 AI 위협을 줄일 수 있는 게 아니라서다. 미국과 한국 등 28개국과 유럽연합(EU)은 지난해 11월 영국에서 ‘제1차 AI 안전 정상회의’를 열고 AI가 초래하는 위험을 막자는 ‘블레츨리 선언’을 채택했다. 강제성은 없지만 AI 안전성을 위한 협력이 필요하다는 내용을 담은 첫 합의문이다.
기업 차원 협력도 강화하고 있다. 구글은 마이크로소프트, 메타, 아마존, 애플 등과 함께 ‘AI 파트너십(Partnership on AI)’을 운영하고 있다. 구글 측은 “어느 한 기업만으로 AI 기술 발전을 올바른 방향으로 인도할 수 없다고 생각한다”며 해당 파트너십의 중요성을 강조했다.
권유진 기자 kwen.yujin@joongang.co.kr
▶ 중앙일보 / '페이스북' 친구추가
▶ 넌 뉴스를 찾아봐? 난 뉴스가 찾아와!
ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.