컨텐츠 바로가기

06.16 (일)

이슈 인공지능 시대가 열린다

[팩플]빅테크 "AI 개발 '레드라인' 넘으면 서비스 중단" 합의

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인공지능(AI) 개발 경쟁을 벌이고 있는 빅테크들이 AI가 초래할 위험에 대비하기 위한 공동 대응책을 내놓았다. AI의 위험 기준치를 설정해 수위가 높다고 판단하면 스스로 서비스를 중단하기로 약속했다.

중앙일보

윤석열 대통령이 21일 청와대 영빈관에서 'AI 서울 정상회의'에 화상으로 참석하고 있다. 대통령실

<이미지를 클릭하시면 크게 보실 수 있습니다>





무슨 일이야



글로벌 주요 기술 기업 16곳은 21일부터 이틀간 진행된 ‘AI 서울 정상회의’에서 AI를 안전하게 개발하기 위한 ‘프론티어 AI 안전 서약’에 합의했다. 삼성전자, 네이버, 구글, 오픈AI를 비롯해 중국의 지푸AI와 아랍에미리트(UAE) 기술혁신연구소가 참여했다. 영국 정부는 이에 대해 “북미·아시아·유럽·중동 기업들이 AI 개발에 대한 안전 약속에 합의한 건 처음”이라고 밝혔다. 22일 서울 성북구 한국과학기술연구원(KIST)에서 열린 ‘AI 글로벌 포럼’에서는 국내외 14개 기업들이 안전한 AI 사용을 위한 ‘서울 기업 서약’을 발표했다. 이들은 AI가 생성한 콘텐트를 워터마크로 구분할 수 있게 조치하고 국제 표준 개발을 위한 협력을 강화하기로 했다.

중앙일보

김영희 디자이너





이게 왜 중요해



AI가 발전하는 만큼 안전에 대한 우려도 커지고 있다. 딥페이크를 통한 가짜 뉴스 확산이 대표적이다. 최근엔 오픈AI가 공개한 ‘GPT-4o’(포오)가 헐리우드 배우 스칼릿 조핸슨의 목소리와 비슷하다는 논란에 휩싸여 해당 목소리 사용을 중단하기도 했다.

때문에 이번 정상회의에선 AI의 신뢰성을 높이기 위해 안전장치를 마련해야 한다는 주장이 많이 제기됐다. AI 모델 안전 연구소인 METR의 베스 반스 소장은 “AI 개발이 공공 안전에 용납할 수 없을 정도로 위험해질 수 있는 ‘레드 라인’에 대한 국제적 합의를 이끌어내는 것이 매우 중요하다“고 말했다. 오픈AI의 맞수 기업인 코히어의 에이단 고메즈 창업자도 “지난해 11월 영국에서 처음 열린 ‘AI 안전성 정상회의’ 이후 업계 전반에서 잘못된 정보 및 정보 유출, 데이터 보안 등 가장 시급한 문제에 더 집중하고 있다는 점에 고무돼 있다”며 “문제를 일으킬 가능성이 가장 높은 위험에 우선순위를 두는 것이 중요하다”고 말했다.



안전한 AI, 어떻게 만드나



프론티어 AI 안전 서약엔 ‘기업들의 AI 모델이 합의된 위험 기준치를 초과할 염려가 있을 땐 시스템을 수정하거나 기준치 이내로 위험을 완화하기 위한 노력 해야 한다’는 내용이 담겼다. 위험 수위가 높다고 판단되면 기업은 스스로 서비스 배포를 중단하기로 했다. 이 밖에도 기업 내·외부에 레드팀(취약점을 발견해 공격하는 팀)을 구성해 AI 모델에 대한 위협을 평가하고, AI 안전에 대한 접근 방식을 투명하게 공유하기로 약속했다.

기업 개별적인 AI 안전도 강화한다. 이해진 네이버 글로벌투자책임자(GIO)는 21일 열린 정상 세션에서 “AI 안전 실행 프레임워크인 'NAVER AI 안전 프레임워크'를 다음 달 공개할 예정”이라며 “각 지역의 문화와 가치를 이해하는 다양한 AI 모델들이 나와 많은 국가가 자체 소버린 AI를 확보할 수 있도록 지원해 나갈 것”이라고 밝혔다. 이재용 삼성전자 회장도 “글로벌 사회와 적극적으로 협력해 안전하고 포용적이며 지속 가능한 AI 기술을 개발하는 데 최선의 노력을 다할 것”이라고 말했다.

이날 열린 장관 세션에서는 AI안전 확보를 위한 글로벌 협력 방안이 담긴 ‘서울 장관 성명’을 채택했다. 미셸 더넬란 영국 과학혁신기술부 장관은 “AI 발달 속도 자체가 굉장히 빠른 것을 염두에 두고 우리도 더 빠르게 행동해야 AI 안전성을 담보할 수 있다”고 강조했다.

중앙일보

22일 오후 서울 성북구 한국과학기술연구원(KIST)에서 열린 'AI 서울 정상회의 장관 세션'에서 이종호 과학기술정보통신부 장관과 미셀 더넬런 영국 과학혁신기술부 장관 등 참석자들이 기념촬영을 하고 있다. 과학기술정보통신부

<이미지를 클릭하시면 크게 보실 수 있습니다>





‘AI 혁신·포용’ 아젠다도 제시



지난해 11월 영국 정상회의에선 AI 위기 대응에 집중했다면 이번 정상회의는 AI 안전을 비롯해 혁신과 포용으로 아젠다를 확대했다. 세계 AI 석학으로 꼽히는 앤드류 응 미국 스탠퍼드대 교수는 기조 강연에서 “AI 기술과 적용을 구분하고, 기술이 아닌 적용 분야를 관리해야 한다”며 “AI 기술이 적용된 도구의 안전성을 높여 발전을 저해하지 않는 방식으로 나아가야 한다”고 강조했다.

중앙일보

앤드류 응 미국 스탠퍼드대 교수가 22일 서울 성북구 한국과학기술연구원(KIST)에서 열린 2024 인공지능(AI) 글로벌 포럼 개회식에서 기조연설하고 있다. 뉴스1

<이미지를 클릭하시면 크게 보실 수 있습니다>





앞으로는



AI후발주자인 한국 입장에선 국제사회와 연대해 AI개발과 안전 사이 균형을 잘 맞춰야한다는 주장이 나온다. 이종호 과학기술정보통신부 장관은 “국제사회의 역량을 결집해 AI의 안전·혁신·포용을 달성하는 ‘서울 효과’를 일으키기를 바란다”며 “이번 정상회의 개최를 바탕으로 앞으로도 글로벌 AI 거버넌스와 규범 정립을 위해 국제사회와 긴밀하게 연대해 나가겠다”고 밝혔다.

강광우 기자 kang.kwangwoo@joongang.co.kr

중앙일보 / '페이스북' 친구추가

넌 뉴스를 찾아봐? 난 뉴스가 찾아와!

ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.