유럽연합(EU)이 고위험 인공지능(AI)에 대해 '철퇴'를 내리면서 빅테크 기업의 개발 속도 조절이 불가피할 전망이다.
21일(현지시간) EU 교통·통신·에너지 이사회는 벨기에 브뤼셀에서 열린 회의에서 'AI법'을 승인했다고 발표했다. 입법 절차가 마무리된 것은 2021년 초안 발의 이후 3년 만이다. 마티외 미셸 벨기에 디지털 장관은 "유럽은 신기술을 다룰 때 신뢰, 투명성, 책임의 중요성을 강조하는 동시에 빠르게 변화하는 기술이 더욱 발전하고 유럽의 혁신을 촉진할 수 있도록 보장할 것"이라고 강조했다. AI법은 AI 활용에 대한 위험도를 네 단계로 구분해 차등 규제하는 것이 특징이다. 이러한 고위험 AI 시스템은 높은 수준의 투명성, 책임성, 안전성을 보장해야 한다.
또 사용자에게 시스템의 작동 방식과 한계를 명확히 알려야 한다. 아울러 개인의 특성·행동과 관련된 데이터로 개별 점수를 매기는 관행인 사회적 점수 평가와 인터넷이나 폐쇄회로(CC)TV에서 얼굴 이미지를 무작위로 수집해 데이터베이스를 구축하는 행위는 전면 금지된다. EU는 특수 목적이 아닌 범용 AI를 구축하는 기업에는 특별한 '재갈'을 물리기로 했다. EU 저작권법을 반드시 준수해야 하며 AI 학습 과정에 사용된 콘텐츠를 명시해야 한다. 범용 AI 가운데서도 '강력한' 시스템으로 분류될 경우 시스템적 위험 평가·완화, 사고 보고 등 추가 의무가 부여된다. 위반 시 최대 전 세계 매출액의 7% 또는 3500만유로 가운데 큰 금액이 벌금으로 부과된다.
[이상덕 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.