컨텐츠로 건너뛰기
검색
테크42 언론사 이미지

트럼프의 ‘깨어있는 AI 금지령’이 의미하는 것

테크42 류정민 기자
원문보기

트럼프의 ‘깨어있는 AI 금지령’이 의미하는 것

서울맑음 / -3.9 °
[AI요약] 트럼프 미국 대통령이 미국을 AI 분야의 선두주자로 자리매김하려는 가운데, ‘깨어있는 AI’ 금지하겠다고 선언했다. 다양성, 형평성, 포용성 등의 가치를 대변하는 ‘깨어있는 AI’를 금지하고 ‘공정성’ 있게 가자는 것이다. AI는 결국 시대의 정치적 흐름에 따라 이념적으로 편향될 수밖에 없는 것일까.

ⓒTech42

ⓒTech42


다양성, 형평성, 포용성의 가치를 대변하는 ‘깨어있는 AI’가 논란인 이유는 무엇일까.

도널드 트럼프 미국 대통령이 성명한 ‘깨어있는 AI’(woke AI)를 금지하는 행정명령의 이유와 전망에 대해 가디언, CNN 등 외신이 26일(현지시간) 보도했다.

트럼프 대통령은 연방 정부가 ‘당파적 편견이나 비판적 인종 이론과 같은 이념적 의제가 주입된’ AI 기술을 조달하는 것을 금지하는 행정명령에 서명했다고 지난주 밝혔다. 이번 조치는 백악관이 최근 발표한 미국의 AI 발전을 위한 다양한 계획과 정책 권고안을 담고 있는 ‘AI 행동 계획’의 연장선이다.

이러한 움직임은 다양성·형평성·포용성(DEI) 등 주로 ‘깨어있는’ 생각이라고 불리고 있는 가치에 대한 반발이 온라인 정보 검색에 중요해 지고 있는 AI 기술로까지 확대되고 있다는 것을 보여준다.

이번 ‘연방 정부의 깨어있는 AI 방지’ 행정명령은 정부가 사용하는 챗GPT와 같은 대규모 AI 언어 모델이 트럼프 대통령의 ‘편견 없는 AI 원칙’을 준수하도록 요구하고 있다. 여기에는 AI가 ‘진실 추구’를 지향하고 ‘이념적 중립성’을 보여야 한다는 내용이 포함돼 있다.

이번 행정명령의 첫 번째 원칙인 진실추구는 챗GPT와 같은 챗봇을 구동하는 모델인 대규모 언어 모델이 ‘사실 정보나 분석을 추구할 때 진실해야 한다’고 명시한다. 행정명령에 따르면 이는 사실적 답변을 요청할 때 역사적 정확성이나 과학적 탐구와 같은 요소를 우선시해야 한다는 것을 의미한다.


두 번째 원칙인 ‘이념적 중립성’은 정부 업무에 사용되는 대규모 언어 모델이 중립적이고 비당파적이어야 하며, DEI와 같은 이념에 유리하게 응답을 조작해서는 안 된다는 것을 명시하고 있다.

이번 행정명령은 주로 정부에서 조달하는 AI 모델에 초점을 맞추고 있지만 많은 주요 기술 기업들이 미국정부와 계약을 맺고 있다. 실제로 구글, 오픈AI, 앤트로픽, xAI는 이달 초 ‘국방부의 첨단 AI 기능 도입 가속화’를 위해 각각 2억달러(약 2765억원)의 지원을 받았다.

트럼프 대통령은 이번 행정명령을 발표하면서 “이제 미국 정부는 진실, 공정성, 그리고 엄격한 공정성을 추구하는 AI만 다룰 것”이라고 강조했다.


그러나 최근 미국 보수진영이 ‘깨어있는 AI’ 용어를 공공연하게 진보진영을 향한 조롱거리로 삼는다는 점을 가만하면 트럼프 대통령이 추구하는 ‘공정성’에도 의문이 제기된다. AI가 이념적으로 편향될수 있는지, 아니면 정말 ‘깨어’있을 수 있는지에 대한 의문이다.

AI 모델은 주로 훈련된 데이터, 훈련 과정에서 받는 피드백, 그리고 제공되는 지침을 반영한다. 이 모든 요소는 AI 챗봇이 깨어있는 것처럼 보이는 답변을 제공하는지 여부에 영향을 미친다.

여기서 등장하는 ‘깨어있는’ 것처럼 보이는 답변은 주관적인 용어로, 해당 용어가 정치적이든 아니든, 어쩔 수 없이 논란이 되는 일반적인 편견이 AI 산업의 난제가 돼왔다.


편견은 사람마다 다르게 해석될 수 있지만, 일부 데이터에 따르면 사람들은 특정 AI 응답에서 정치적 성향을 감지하는 것으로 나타났다.

ⓒTech42

ⓒTech42


스탠퍼드 경영대학원에서 지난 5월에 발표한 논문에 따르면 미국인들은 특정 인기 AI 모델의 응답을 좌파적으로 인식하는 것으로 나타났다. 브라운 대학교에서 지난해 10월에 실시한 연구에서도 AI 도구가 정치적 주제에 대한 입장을 취하도록 조정될 수 있다는 사실이 밝혀졌다.

전문가들은 AI챗봇의 이러한 성향이 응답 구성을 학습하는 방식 때문일 가능성이 높다고 분석한다. AI 모델은 인터넷 및 기타 출처에서 얻은 텍스트, 비디오, 이미지와 같은 데이터를 기반으로 학습하며, 그런 다음 인간은 모델이 답변의 질을 판단할 수 있도록 피드백을 제공한다.

앞으로 점점 ‘이념적 편향’과 같은 모호한 표현으로 인해 새로운 정책을 수립하고 시행하기가 어려워질 것으로 예상되는 가운데, AI 모델이 이념적 편향을 가지고 있는지 평가하는 새로운 시스템의 필요성도 제기되고 있다.

문제는 그러한 평가를 위한 ‘편향’과 ‘공정’에 대한 결정마저도 누가 내릴 수 있느냐에 대한 근본적 질문으로 돌아오게 된다는 점이다.

앤드류 홀 스탠퍼드대학교 정치경제학 교수는 “AI 챗봇이 사람들이 좌파적으로 치우쳐 있다고 생각하는 답변을 생성하는 이유는 기술 기업들이 챗봇이 불쾌하다고 여겨질 수 있는 콘텐츠를 생성하지 못하도록 추가적인 보호 장치를 마련했을 가능성이 있다”고 관측했다.

민주당 소속 에드워드 마키 상원의원은 “AI에 대한 반 각성 조치에 반대하는 서한을 구글 모회사 알파벳, 앤트로픽, 오픈AI, 메타, 마이크로소프트, xAI의 CEO들에게 보냈다”며 “편견 주장이 정확하다 하더라도, 공화당이 행정부와 의회 조사를 통해 정치적 권력을 행사해 플랫폼의 발언을 조작하려는 시도는 위험하고 위헌적”이라고 비판했다.

AI 비영리 연구 기관인 앨런 인공지능연구소의 오렌 에치오니 CEO는 “AI 모델은 사람처럼 신념이나 편견을 가지고 있지는 않지만, 특히 특정 질문에 대한 응답에서 편견이나 체계적인 성향을 보일 수 있다는 것은 사실”이라고 설명했다.

류정민 기자

저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지