올해 다보스포럼의 주요 주제 중 하나는 경제와 사회를 위한 AI의 주도적 역할이었다. [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 글로벌 리더와 전문가들이 세계 현안을 논의하는 세계경제포럼(WEF, 다보스포럼). 올해 WEF의 주요 주제 중 하나가 '경제와 사회를 위한 인공지능(AI)의 주도적 역할'이었다. 그런 만큼 이 자리에서 AI가 언급된 세션만 15개가 넘었다.
이처럼 포럼에 참석한 많은 패널들이 AI의 이점을 강조한 것은 확실했으나 AI로 인한 개인정보 침해 문제가 부작용으로 떠오르고 있다.
지난 22일(현지시간) IT매체 테크레이더에 따르면 효율적인 AI 운용을 위해서는 이를 훈련시킬 대규모언어모델(LLM)이 필요하다. 즉 AI가 복잡한 패턴을 인식해 정확한 예측 답안을 내놓도록 하는 대량의 학습 데이터가 필요한 것. 이 데이터는 누구나 사용할 수 있는 공개 정보이거나 개인 소유의 정보일 수도 있다.
바로 이러한 정보를 올바르게 활용하는 것에 대한 중요성이 확대되고 있다. 이는 사용자 동의 없이 무분별하게 활용되는 개인 소유의 정보와 공개 정보 간의 확실한 경계가 절실하다는 내용이다. 가령 국가 안보 및 금융 사기 방지를 위해 활발하게 사용되는 생체 인식 기술은 일부의 경우 악용 위험이 다분하다.
또 다른 문제점으로 거론되는 것은 기밀 누출의 가능성이다. 오픈AI의 챗GPT와 같은 대부분의 AI 및 LLM은 보안에 특히 취약한 것으로 알려졌다. 이에 많은 대기업들이 자사의 기술 및 서비스에 대한 기밀을 보호하기 위해 해당 챗봇의 사용을 금지하는 경우도 있다.
이러한 우려를 인식했던 탓인지 다보스포럼에서는 AI가 미래 인류에 미칠 영향에 대한 규제 방안 논의가 활발했다. 사실 이미 전 세계 곳곳의 법안에서는 AI를 규제하기 위한 내용을 쉽게 찾아볼 수 있다. 미국 건강 보험 양도 및 책임에 관한 법(HIPAA), 유럽 일반 개인정보 보호법(GDPR) 등에서 데이터 관련 규정을 명시하고 있다.
AI가 미래 인류에 미칠 영향을 우려한 규제 방안에 대한 논의가 활발하다 [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
법률에 따르면 기업은 개인 정보를 사용하는 경우 투명성 입증 관련 내용을 고지할 의무가 있다. 다만 이는 실질적으로 데이터 누출이나 공격의 위험을 막을 수는 없어 보안 문제는 여전한 과제로 남아있다.
이에 매체는 안전하고 혁신적인 기술 조치를 적극 시행해야 한다고 주장했다. 이는 개인 정보 및 데이터 암호화에 중점을 두면서도 생성형AI 모델 및 클라우드 컴퓨팅 도구가 대규모 데이터에 완전한 접근을 가능케 한다는 것이다.
이러한 개인 정보 보호 기술로 꼽히는 것은 '신뢰 실행 환경'(TEE)이다. 이는 메인 프로세서의 보안 영역으로 기밀성과 무결성 측면에서 내부에 로드되는 코드와 데이터가 보호될 수 있도록 보장하는 역할을 한다.
다만 TEE 내의 데이터는 암호화가 필수라서 복호화 후에는 익명성이 완전히 상실할 위험이 있다. 이에 매체가 제시한 양자 후기 기술은 '완전 동형 암호화'(FHE)다. FHE는 데이터를 처리하는 동안에도 암호화 상태를 유지하도록 해 익명성뿐만 아니라 데이터 침해 방지를 보장할 수 있다.
이제 개인 정보 보호는 대규모 기술 산업의 한 분야가 되고 있는 만큼 AI에 관한 단순한 규제만으로는 인류를 보호하기 부족한 실정이다. 기술적인 문제에는 기술적인 해결책만이 정답이라고 매체는 평가했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.