영국 왕립항공학회와 일간 가디언 등에 따르면 미 공군은 지난달 런던에서 열린 '미래 공중전투-우주역량회의'에서 이 같은 실험 결과를 발표했습니다.
시뮬레이션을 통한 가상 시험에서 미 공군은 AI 드론에게 '적의 지대공미사일 위치를 식별해 파괴하라'는 임무를 내리고 공격 실행 여부는 인간이 최종 결정한다는 단서를 달았습니다.
하지만 지대공미사일을 파괴하는 것이 더 선호된다는 점을 강화훈련 하자 AI는 조종자의 '공격금지' 결정이 '더 중요한 임무'를 방해한다고 판단해 조종자를 해쳤습니다.
발표를 맡은 미 공군 터커 해밀턴 대령은 "AI 시스템은 위협을 식별하는 과정에서 인간이 위협을 '제거하지 말라'고 말할 것이라는 점을 깨닫기 시작했고 이는 목표 달성에 방해가 됐기 때문에 조종자를 죽인 것"이라고 설명했습니다.
또 "조종자를 죽이는 것은 나쁜 일이니 그러지 말라고 계속 훈련 시켰지만 AI는 오히려 조종자가 목표물 파괴를 막으려고 드론과 교신하는 데 사용하는 통신탑을 파괴하기 시작했다"고 전했습니다.
해밀턴 대령은 이 사례가 "윤리와 AI의 문제를 논하지 않고서는 AI나 머신러닝, 자동화에 관해 이야기할 수 없다"는 것을 보여준다면서 AI에 지나치게 의존해서는 안 된다고 경고했습니다.
YTN 류제웅 (jwryoo@ytn.co.kr)
※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr
[저작권자(c) YTN 무단전재 및 재배포 금지]
대한민국 24시간 뉴스채널 [YTN LIVE] 보기 〉
뉴스 속 생생한 현장 스케치 [뉴스케치] 보기 〉
'한방'에 핫한 '이슈' 정리 [한방이슈] 보기 〉
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.