컨텐츠 바로가기

03.29 (금)

AI의 장밋빛 미래?…도덕성 없이는 잿빛 미래 부른다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[머니투데이 김세관 기자] [[가보지 않은 길]⑨AI가 만들어가는 세상]

우리나라 과학계를 뒤집어 놓을 만한 사건이 지난 4월 발생했다. 저명한 해외 학자 57명이 한국과학기술원(카이스트)과의 연구협력을 갑자기 전면 중단하겠다고 선언했기 때문이다.

카이스트가 국방AI(인공지능)융합센터를 통해 '킬러로봇(전투용 로봇)'을 개발한다는 오해에서 비롯된 해프닝이었지만, '장밋빛'으로만 여겼던 AI 시대의 그림자를 우리사회 담론으로 끌어들인 사건이었다.

공교롭게 같은 시기 구글 직원 3000여명이 순다르 피차이 구글 CEO(최고경영자)에게 미국 국방부 파일럿 프로그램에서 철수하라는 성명서를 발표했다. 구글의 AI 기술이 공격용 무기개발에 이용되는 것에 반발한 것이다.

사실 AI가 가져올 밝은 비전만큼이나 어두운 미래에 대한 두려움은 '킬로로봇'에만 국한되지 않는다. 전쟁이나 대립 상황이 아닌 일상에서도 AI가 사람의 생명을 위태롭게 할 수 있는 가능성이 점차 현실화 되고 있다.

지난 3월 미국 애리조나주에서 우버 자율주행차가 잘못된 상황 판단으로 보행자를 치어 숨지게 하는 사고가 발생했다. 같은 달 캘리포니아의 한 고속도로에서는 자율주행 기능을 사용해 주행 중이던 테슬라 자동차가 충돌 후 폭발하는 사고로 운전자가 사망했다.

직접적인 생명만 위협하는 것이 아니다. 단순 기계를 넘어 '인간'처럼 대화하고 감정을 표현하는 '성인로봇'이 일으킬 윤리문제나 종족 보존의 문제, 정확하고 효율적인 진료가 기대되는 의료 목적 AI의 안전성 및 개인정보보호 문제, AI의 발전으로 빠르게 사라지게 될 우리의 일자리 문제 등도 선제적으로 풀어야 할 AI 시대의 부작용으로 지적되고 있다.

이에 세계 각국 정부와 단체, 기업들은 일종의 '윤리헌장'을 마련해 AI 개발자들에게 기술발전과 관련한 최소한의 도덕적 책무들을 요구하고 있다.

가장 대표적인 것이 지난해 1월 AI연구 지원 비영리단체 '퓨처오브라이프'가 미국 캘리포니아 아실로마에서 발표한 '아실로마 AI 원칙(Asilomar AI Principles)'이다. 고 스티븐 호킹 박사와 일론 머스크 테슬라 CEO(최고경영자), 알파고 개발자 데미스 허사비스 딥마인드 CEO 등 2000여명의 인사들이 지지서명을 남겼다.

경제협력개발기구(OECD) 차원에서도 AI 발전을 위한 권고안을 만든다. 최근 열린 OECD 디지털경제정책위원회 정례회의에서 AI 관련 국제 규범을 수립하기 위한 AI 권고안을 수립키로 합의한 것. 우리나라 과학기술정보통신부 기조실장을 역임한 민원기 뉴욕주립대 교수가 권고안을 만드는 그룹 의장으로 선출돼 주목을 받았다.

민간 기업으로는 카카오가 지난 1월 '카카오 알고리즘 윤리 헌장'을 발표해 주목을 받았다. 인류의 편익과 행복을 추구하는 카카오 AI 기술의 지향점, 결과의 의도적 차별성 방지, 윤리에 근거한 학습 데이터 및 수집 관리 원칙 등이 담겨 있다.

김세관 기자 sone@

<저작권자 ⓒ '돈이 보이는 리얼타임 뉴스' 머니투데이, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.