컨텐츠 바로가기

11.05 (화)

“골치아픈 유럽, 차라리 안할래”...메타·애플, 새 모델 출시 포기

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
멀티모달 ‘라마3’ 계획 접어
EU, 빅테크 지배력 제재하자
애플 신규 ‘AI폰’ 유럽서 보류

각국 AI 위험관리 중요성 커져
업계 자체 가이드라인 박차


매일경제

<이미지를 클릭하시면 크게 보실 수 있습니다>


메타가 유럽에서 새로운 범용 인공지능(AI) 모델을 더 이상 내놓지 않기로 결정했다. 앞서 애플이 유럽에서 ‘백기’를 든 이후 빅테크 기업으로서는 두번째 철수다. 유럽연합(EU)이 올 5월 마련한 ‘AI법’(AI Acts)의 강도가 높다보니 버티지 못했다는 평가가 나온다.

18일 정보기술(IT) 매체인 악시오스에 따르면, 메타는 3세대 모델인 ‘라마 3’를 EU 회원국에서 출시하지 않는다. 메타는 “앞으로 몇 달 안에 멀티모달 기반 라마3를 출시할 예정이지만, 유럽의 예측할 수 없는 규제 환경 때문에 EU에서는 내놓지 않을 것”이라고 말했다.

라마는 인간 두뇌의 시냅스에 해당하는 파라미터가 각각 80억개, 700억개, 4000억개에 달하는 오픈소스 모델이다. 라마를 활용해 누구나 자유롭게 AI를 개발할 수 있는 것이 특징이다. 하지만 메타가 이번에 유럽에서 라마3 배포 및 사용을 금지하면서, 유럽 기업들은 이를 사용할 수 없게됐다. 위반시 저작권 침해·손해 배상 소송에 직면할 수 있다. 또 라마3를 기반으로 개발될 차세대 스마트 글래스 역시 유럽에서는 출시가 안될 것으로 보인다. 다만 영국에서는 종전대로 AI 모델을 출시할 것으로 전해졌다.

메타의 AI 철수 배경은 EU의 강도 높은 규제 때문인 것으로 보인다. 앞서 애플 역시 아이폰15 일부 모델부터 장착될 새로운 AI 기능인 ‘애플 인텔리전스’를 유럽에서는 배제하겠다는 뜻을 밝힌 바 있다. EU는 가장 강도 높은 AI 안전을 요구하는 지역이다.

특히 EU의 AI법은 ‘범용 AI모델’(GPAI)에 대한 별도 규칙을 둘 정도로 엄격하다. 범용 AI를 개발하는 기업은 EU 저작권법을 준수해야한다. AI 기업은 AI 학습에 투입한 데이터셋 목록을 공개해야하고, 사용자가 삭제를 요구할 경우 이에 응해야한다. 또 적대적 테스트를 실시하고, AI 모델이 보건·안전을 위협할 경우 이를 완화할 대책을 마련해야한다. 이를 위반할 경우 전세계 매출의 최대 7%를 벌금으로 부과 받을 수 있다. 메타는 AI모델을 무료로 배포하는 오픈소스 전략을 취하고 있어, EU 요구에 응하기 어려운 것으로 알려졌다. 사용 기업이 어떤 데이터를 학습했는지 파악이 불가능할 뿐더러 데이터셋 목록을 공개할 경우 저작권 소송에 휩싸일 수 있다.

AI 기업에 대한 규제는 갈수록 거세지고 있다. 딥페이크 규제가 대표적이다. 미국 연방정부는 딥페이크 피해자에게 구제 수단을 마련하는 ‘딥페이크 책임법’ 제정을 추진하고 있고, 중국은 포괄적 규제안을 담은 AI법 제정 마련에 나선 상태다.

상황이 이렇자 AI 모델을 개발하고 관련 서비스를 운영하는 주요 테크 기업들은 ‘AI 오남용’을 방지하기 위한 자체 대책 강화에 역점을 두고 있다. 특히 국내의 경우 아직 AI 관련 기본법이 마련되지 않은 상황이다보니 사업에 장애물이 될 수 있는 위험 요소를 사전 차단하기 위한 조치로 ‘AI 안전’에 주목하는 테크 기업들이 많은 분위기다.

IT업계 한 관계자는 “AI를 주도하는 테크 기업 대부분이 메신저, 포털 등과 같은 플랫폼 사업을 영위하고 있기 때문에 AI를 연구·개발만 하는 사이드와 견줘 안전 문제에 더욱 기민하게 대응하고 있다”고 전했다. 플랫폼 사업 특성 상 소비자 관련 안전 문제 및 권리 침해 소지가 발생하면 최악의 경우 사업 철수로 이어질 수 있어서다.

실제로 자체 AI 윤리 기준이 있는 네이버만 해도 AI의 통제 상실과 악용되는 문제를 방지하는 차원에서 지난달 ‘네이버 AI Safety Framework(ASF)’라는 자체 대응 체계를 추가 신설한 바 있다. AI 시스템이 야기할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고, 이에 맞춰 최고 성능의 AI 기준 수준 및 시스템에 대해선 3개월 마다 위험 평가를 진행하는 등 보다 세밀해진 가이드라인을 만들었다.

네이버는 또 딥페이크 대응의 일환으로 구글, 마이크로소프트, 인텔 등이 참여해 글로벌 AI 워터마크 기술 표준을 구축한 ‘C2PA’ 연합에 국내 기업 최초로 가입하기도 했다.

구글은 자사 대표 동영상 플랫폼인 유튜브에서 난립하는 AI 콘텐츠 문제를 의식, 지난 3월부터 AI로 만들어진 콘텐츠에 ‘생성·합성 여부’를 표시하는 라벨링 적용을 시작했다. 실제 일어나지 않은 사건을 사실적으로 묘사하는 영상이나 누군가를 따라하는 목소리 등의 콘텐츠가 이용자로 하여금 혼선을 야기할 수 있다는 우려의 목소리가 크기 때문이다.

자체 AI 윤리 가이드라인을 갖고 있는 카카오도 글로벌 오픈소스 커뮤니티인 ‘AI 얼라이언스’에 국내 기업 중 최초로 가입, 안전성을 담보하는 AI 연구개발에 힘을 싣고 있다.

반면 AI 문제를 AI로 풀어내는 테크 기업들도 많아졌다. 일례로 구글은 자사 메일 서비스 지메일에 AI 기술을 접목해 매일 전세계 1억개의 피싱 메일을 차단하고 있다고 밝혔다. 아만다 워커 구글 보안 및 개인정보보호 연구 개발 총괄은 “AI 기술 연구로 방어 역량을 강화하고 보안 기술 및 교육 투자를 병행함으로써 더욱 안전하며 책임감 있는 AI 활용 환경을 조성할 수 있다”고 말했다.

한편 EU는 또 빅테크에 강도높은 ‘반독점’ 조사도 수행중이다. 이날 로이터는 EU 문건을 인용, EU 집행위원회가 AI 업계를 상대로 “삼성전자가 갤럭시 S24에 구글 ‘제미나이 나노’를 탑재하면서, 다른 생성형 AI 시스템을 제한하는지 물었다”고 보도했다. 이번 조사는 구글과 삼성에 AI 파트너십 관련 관련 정보를 요청한데 이은 후속 조치로 보인다. 로이터는 “ 구글과 삼성을 상대로 각각 반독점법 위반 조사를 개시하는 데 영향을 줄 수 있다”고 덧붙였다.

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.