SW정책연구소 보고서 "악의적 AI 사용 늘지만 대응은 여전히 기술적 차원"
딥페이크 (PG) |
(서울=연합뉴스) 김현수 기자 = 전세계적으로 도입 필요성이 높아진 인공지능(AI) 위험 분류 체계를 마련할 때 기술적 요인뿐 아니라 사회·제도적 요인을 종합적으로 고려해야 한다는 분석이 나왔다.
1일 소프트웨어정책연구소의 'AI 위험 유형 및 사례 분석' 보고서에 따르면 악의적으로 AI를 사용하는 경우가 전 세계적으로 증가하고 있지만, AI 위험에 대한 대응 방식은 합성 미디어 탐지, 워터마킹 등 여전히 기술적 차원에 머물고 있다.
이런 상황에서 보고서는 세계적으로 합의된 AI 위험 분류 체계를 마련해 앞으로 다양해질 AI 위험에 대응해야 한다고 주장했다.
특히 AI 개발 경쟁이 격화함에 따라 AI 위험 완화를 위해 기업들이 투자할 이점이 줄어들고 있는 점과 규제 정책이 기술 혁신 속도를 따라가지 못하는 점 등도 고려해 대응 체계를 마련해야 한다고 강조했다.
이를 해결하기 위해 AI 위험 요인에 대한 우선순위를 마련하고, 악의적 콘텐츠에 대한 소비자 리터러시 능력을 높이는 등 포괄적인 대책이 필요하다고 보고서는 분석했다.
보고서는 "비(非)기술적인 요인에 의한 AI 위험은 단시간에 해결되기는 어려운 경우가 많다"며 "노동 시장 영향, AI 격차 심화에 따른 사회·경제적 문제 등은 잠재적인 영향에 대한 논의를 통해 신중한 대응이 필요하다"고 전했다.
한편, 보고서는 세계적인 AI 전문가 요슈아 벤지오 캐나다 몬트리올대 교수를 주축으로 만들어진 AI 위험 요인 분류 체계가 AI에 따른 사회적 위험 등을 다각적으로 고려하고 있어 향후 AI 위험에 관한 논의에 참고해야 한다고 제안했다.
벤지오 교수 연구팀의 분류 체계는 '악의적 사용 위험', '오작동 위험', '시스템적 위험', '교차 위험 요인' 등 4가지를 두고 각 세부 기준을 마련하고 있다.
hyunsu@yna.co.kr
▶제보는 카카오톡 okjebo
▶연합뉴스 앱 지금 바로 다운받기~
▶네이버 연합뉴스 채널 구독하기
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.