<이미지를 클릭하시면 크게 보실 수 있습니다> |
구글 딥마인드가 일반인공지능(AGI)이 사람을 위협할 것에 대비하고자 새로운 '인공지능(AI) 안전 표준지침'을 마련했다. 이번 지침은 21~22일 서울에서 열리는 'AI 서울 정상회의'를 앞두고 발표돼 주목된다.
19일 딥마인드는 블로그를 통해 AI 안전 틀인 '프런티어 안전 프레임워크'를 공개했다. 지침은 전 세계 AI 모델 훈련에 사용되는 컴퓨팅 파워가 6배 증가할 때마다 AI 모델을 전면 재검토하는 것을 골자로 한다. 스스로 판단하는 AI인 AGI가 등장하면 통제가 안 되니 사전에 대비하자는 메시지다. 딥마인드는 "AI가 인간을 조종할 수 있거나, 정교한 악성 소프트웨어를 작성하는 '중요한 능력'에 도달할 것으로 판단되는 경우 통제해야 한다"면서 "AI 모델을 사전에 평가하고 위험이 탐지되면 서비스 배포를 차단해야 한다"고 밝혔다. 이날 딥마인드는 크게 자율성, 바이오 보안, 사이버 보안, 머신러닝 연구개발(R&D) 등 4개 부문에 걸쳐 AI 위협을 판별할 것을 제안했다. AI가 자동으로 생물학적 공격을 준비하거나 사이버 공격을 자동화하려는 것이 대표적 사례다. 딥마인드는 "다른 AI 기업·연구자와 함께 프레임워크를 지속적으로 개선하겠다"면서 "내년에는 감시 장치가 마련될 수 있도록 하겠다"고 했다.
오픈AI도 성명을 발표했다. 오픈AI의 샘 올트먼 최고경영자(CEO)와 그레그 브로크먼 사장은 X(옛 트위터)를 통해 'AI 안전 성명'을 발표했다. 이들은 "AGI로 가는 길에 아직 입증된 안전 지침서는 없다"면서 "오픈AI는 긍정적인 AI를 제공하는 동시에 심각한 위험을 완화하고자 노력하고 있다"고 강조했다. 오픈AI는 최근 공동창업자 일리야 수츠케버 최고수석과학자가 이끄는 안전 담당 부서인 슈퍼얼라인먼트(Super Alignment)팀을 다른 팀과 통폐합하고 개발에 속도를 내고 있다.
AI 발전 속도가 빨라지면서 안전은 주요 이슈로 부상했다. 이를 위해 한국 정부는 영국 정부와 함께 21~22일 'AI 서울 정상회의'를 온·오프라인으로 개최한다. 참가자만 300명 이상이다. 윤석열 대통령과 리시 수낵 영국 총리는 21일 '정상 세션' 공동의장을 맡아 'AI 안전 문제 및 개발에 대한 혜택 공유'를 주제로 온라인을 통해 각국 정상과 머리를 맞댈 예정이다. 이번 정상회의 키워드는 '안전' '혁신' '포용' 세 가지다. 안전한 AI를 개발해 그 혜택을 일반 국민에게까지 널리 퍼뜨리겠다는 목표다.
22일에는 장관 세션이 이어진다. 이종호 과학기술정보통신부 장관과 미셸 도넬런 영국 과학혁신기술부 장관이 공동의장을 맡아 19개국 이상 정부 관계자 등과 함께 정상회의 후속 논의를 이어간다. 주제는 AI 안전성 확립과 지속 가능한 AI 발전 촉진이다.
AI 안전 연구소 설립은 세계적 화두다. 아울러 관계 장관들은 AI가 초래하는 부작용을 방지할 방법을 함께 논의한다. 과기정통부는 "AI 개발로 막대한 전력이 소모되고 있어 이에 대한 대응이 필요하다"면서 "저전력 반도체 등 한국의 AI 반도체 비전을 중심으로 새로운 글로벌 어젠다를 던지겠다"고 했다. 이번 정상회의에서는 고학수 개인정보보호위원회 위원장과 강도현 과기정통부 2차관 주도로 산·학계가 함께하는 'AI 글로벌 포럼'을 별도로 연다. 해외에서는 앤드루 응 스탠퍼드대 겸임교수, 잭 클라크 앤스로픽 공동창업자, 제이슨 권 오픈AI 최고전략책임자(CSO), 톰 루 구글 딥마인드 부사장, 크리스티나 몽고메리 IBM 최고신뢰담당 부사장, 너태샤 크램프턴 마이크로소프트 AI최고책임자(CRAIO) 등이 참여한다. 또 국내에선 이홍락 LG AI연구원 최고AI과학자, 배순민 KT 센터장, 하정우 네이버클라우드 AI이노베이션센터장, 이상호 카카오 최고AI책임자 등이 참석한다.
[이상덕 기자 / 이동인 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.