컨텐츠 바로가기

10.18 (금)

[AI안전LAB] ① 기업만 배부른 AI 진흥? "브레이크 없는 엔진"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한국의 국가 AI안전연구소가 오는 11월에 공식 출범한다. 최근 전세계 국가들이 AI 기술 및 산업 패권 확보에 혈안인 가운데, 한편에선 인간과 AI의 안전한 공존 방안 또한 중요한 공통 과제로 논의되고 있다. 본 기획은 국가 AI 안전 연구소 출범을 앞두고 '안전한 AI' 준비의 중요성 및 글로벌 사례를 폭넓게 조망해본다. <편집자주>

[디지털데일리 이건한 기자] 최근 전세계 인공지능(AI) 붐은 오픈AI, 메타, 마이크로소프트 등을 위시한 기술기업들이 주도하고 있다. 각국 AI 스타트업들의 약진 또한 주목할 만하다. 또한 이런 혁신 기업들을 얼마나 많이 보유했는지가 곧 그 나라의 AI 경쟁력으로 평가되기도 한다. 문제는 이 때문에 AI 발전의 균형추가 기술 혁신과 비즈니스 중심으로 기울고 있다는 점이다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




이와 관련해 지난해 말, 오픈AI의 CEO 샘 올트먼이 공동창업자 일리야 수츠케버를 위시한 몇몇 이사들에게 해고됐다가 며칠만에 복귀한 사건은 업계에 큰 화두를 던졌다. 당시 올트먼 축출의 이유는 그가 "상업적 이익에 휘둘리지 않고, 인류에게 안전하고 유익한 AI를 개발하는 것"이란 오픈AI의 창립 배경에 반했기 때문으로 알려져 있다. 실제로 올트먼은 AI 기술의 안전성보다 전방위 기술 확산, 비즈니스 모델 개발에 더 가치를 두는 경영자로 평가되는 인물이었다.

그러나 올트먼 축출은 오히려 오픈AI 내부의 많은 직원들, 투자사들의 반발로 무산됐다. 예상보다 더 많은 임직원이 'AI로 돈과 영광을 함께 거머쥔 오픈AI'를 기대했던 까닭이다. 이는 오픈AI의 경쟁력과 지속성 확보를 위한 선택이었으나, 한편으론 '기업'이란 속성 안에서 안전한 AI를 추구하는 목소리는 결코 주류가 되기 어렵다는 현실을 나타낸 상징적 사건으로 기억되고 있다.

이후 1년여가 지난 현재, AI 업계는 여전히 기술 혁신이 가져올 장밋빛 미래와 신사업 개발을 위한 규제 완화를 외친다. 이들의 공통된 목소리는 "AI가 인간을 도와 다양한 일터에서 생산성을 제고하고, AI 에이전트는 개인의 일상을 더욱 편리하게 할 것"이란 점이다. 또한 이를 위해 ▲AI 학습용 데이터에 대한 폭넓은 사용권리 인정 ▲GPU(그래픽처리장치) 등 AI 연구·서비스용 인프라 지원 확대 ▲더 자유로운 AI 융합 서비스 개발 지원 등을 정부에 요구하고 있다.

모두 AI 모델과 서비스 개발, 비즈니스를 더욱 확대하고 가속하기 위해 필요한 것들이다. 명분은 충분하다. AI 개발 및 사업의 경우 이전의 어떤 하이테크보다 막대한 투자 비용(학습 데이터 확보, 인프라 가동)이 수반되는 만큼, 지속 가능성을 위해 빠른 수익화와 투자비 회수는 이들의 생존과 직결된 문제이기도 하다. 업계는 선두인 오픈AI만 하더라도 챗GPT의 막대한 개발·운영비로 인해 앞으로 수년간 매년 조 단위의 적자가 이어질 것으로 예견하는 상황이다.

최근 국내에서 입법 논의 중인 'AI 기본법'도 이런 기업들의 상황과 국내 AI 기업들의 신속한 글로벌 진출 및 경쟁력 확보 지원을 위해 우선 규제를 최소화하는 방향으로 가닥이 잡히는 중이다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




과연 모두를 위한 AI 진흥인가?

그러나 기업 바깥으로 나가면 이를 비판하는 목소리도 적지 않다. 국내 AI 기본법만 하더라도 기업과 이해관계가 없는 시민사회(AI 일반 사용자)는 "AI 진흥은 지지하나, 적정한 규제와 벌칙조항이 없는 AI 기본법은 반대한다"는 목소리를 일관성 있게 고수하고 있다.

AI의 천국으로 불리는 미국도 최근 기업과 주정부 사이 마찰이 감지되는 중이다. 대표적으로 실리콘밸리가 위치한 캘리포니아주에서는 올해 AI 서비스로 인해 중대한 문제가 발생할 시 기업에게 책임을 묻는 법안(SB 1047), 학습 데이터 출처 공개를 요구하는 법안(AB 2013) 등이 발의됐다. 이는 AI 기업이 기술 및 서비스 개발 시 위험성에 대한 최소한의 책임감을 갖도록 유도하는 것, AI 학습 데이터 수집이 개인정보와 지식재산권(IP)을 무차별 침해하지 않도록 하기 위함 등이다.

또한 지난 10일 세계 최초로 AI 연구자들이 노벨상을 수상해 세계적 이목이 집중된 가운데, 수상자 중 일인이자 '딥러닝의 대부'로 불리는 제프리 힌튼 토론토대 교수, 존 홉필드 프린스턴대 교수도 수상 소감에서 AI 안전에 대한 우려를 전했다. 둘 모두 AI 기술과 구조에 정통한 전문가지만 "통제 불가능한 AI의 위험을 경계해야 한다"는 입장이다.

AI 진흥의 균형 맞출 브레이크도 필수

물론 학계에도 "AI에 대한 과도한 우려는 금물, 기술 혁신이 우선"이라 말하는 거물들이 있다. 하지만 그것이 단지 "AI 기업의 이익을 보장하라"는 메시지인 것만은 아니다. 지금의 AI 기술은 없던 것을 새롭게 만드는 일보다, 기존의 시스템을 더 효율적으로 혁신하는 일에 주로 쓰이고 있기 때문에 충분한 속도 조절이 가능하며 가속도를 조절할 브레이크도 반드시 필요하기 때문이다.

실제로 AI 전문가들 중에는 "자동차 산업을 키운 건 엔진과 더불어 브레이크"라고 비유하는 이들이 있다. 엔진의 발전이 더 빠른 자동차를 만들었지만, 브레이크의 제동 기술도 균형 있게 발전하면서 더 많은 사람이 안전하게 자동차가 주는 혜택을 누릴 수 있었다는 의미다.

이때 브레이크 역할의 키는 각국 정부에 있다. 기업은 'AI 안전'이 사업 키워드가 아닌 이상, 당장 수익성에 도움이 되지 않는 안전 기술 연구에 큰 힘을 들이지 않는다. 최근 AI 투자업계의 한 관계자도 "안전 기술의 고도화는 개별 기업보다 오픈AI, 메타 등 널리 쓰이는 파운데이션 AI 모델을 만드는 회사의 역할을 더 기대하는 측면이 있다" 말하기도 했다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




반면 정부는 국가 경쟁력을 위한 AI 산업 진흥과 함께 국민의 안전한 AI 사용을 보장하고 지원할 책무도 지닌다. 무엇보다 기업은 실제 대형 AI 리스크 발생 시 법적으로, 물적으로도 책임에 한계가 따르므로 현시점 정부의 균형 잡힌 브레이크 역할은 더욱 중요해진다.

이 점은 우리 정부가 오는 11월 출범할 AI안전연구소의 설립의 중요한 배경으로 ➀AI의 기술적 한계, ➁인간의 AI기술 오용, ➂AI 자율성 확대 등으로 실존‧잠재위험 확대 등을 꼽은 이유다. 이는 각각 ▲환각(Hallucination) 및 편향성 ▲유해정보 활용(화학·바이오 무기 개발 등) ▲사이버 해킹·가짜뉴스 배포 ▲인간 통제력 상실 등의 위험이 국민 기본권과 국가 안보 및 사회 안전과 직결된다는 이유와도 연결됐다.

또한 세계적으로 국가AI안전연구소 설립이 보편화되고 있는 만큼, 자국 AI안전연구소가 없는 경우, 글로벌 진출을 추진하는 국내 AI기업이 해외 연구소에 안정성 평가를 받는 과정에서 기술 유출이 발생할 수도 있다. 더불어 한국도 세계 공통의 화두인 AI 안전에 대한 국제적 연대 강화와 규범 정립을 수행하고, 중장기적으로 세계적 AI안전연구를 선도하는 측면에서도 국내에 자체 AI안전연구소가 필요하단 주장은 힘을 얻는다.

국내 AI 안전 연구 전문가인 카이스트 이기민 교수는 "AI 안전이란 세계적으로 통용되는 콘셉트도 있지만, 민족별로도 다른 경향을 띌 수 있다. 미국만 해도 포르노 사이트는 성인이면 접속 가능하지만 한국은 불가능한 것이 한 예다. 따라서 국제적 안전성 기준을 만들 때 한국만의 기준을 전할 기관도 반드시 필요하단 측면에서 국내 AI안전연구소 설립은 꼭 필요했던 일"이라고 말했다.

더불어 "사실 기업도 비즈니스 측면에서 안전에 소홀하면 안 된다. 로봇 AI처럼 향후 일상과 더 밀접한 영역에 AI가 들어올수록 사용자들은 당연히 안전이 더 보장된 기업을 선호할 것이기 때문"이라며 "AI 안전이 꼭 돈이 안 되는 분야라 생각하는 대신, 오히려 장기적 시선에서 더 중요한 경쟁력이 될 수 있음을 기억하길 바란다"고 덧붙였다.

AI 안전성 강화 기술을 개발하는 콕스웨이브의 김기정 대표도 기업이 AI 안전에 투자해야 할 이유를 강조했다. 김 대표는 "기술은 결국 사람을 위한 것이어야 한다. 안전하지 않는 기술이 적용된 제품은 언젠가 사용자가 외면하고, 그런 기술이나 제품의 발전에도 한계가 따를 것"이라며 "안전을 바탕으로 사용자 선택-기술 발전-인류 전체 유익이란 선순환을 갖추기 위해서도 AI 안전은 필수 조건"이라고 설명했다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.