컨텐츠 바로가기

11.24 (일)

이슈 인공지능 윤리 논쟁

AI 비즈니스 성패, 데이터 학습량보다 윤리 원칙이 좌우 [기고]

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
매일경제

업무 환경은 물론 우리 생활 곳곳에 디지털이 입혀지며 사람과 기계 사이의 관계가 진화하고 있다. 지난 수백 년 동안 기계는 주로 단순하고 반복적인 일을 하고 사람은 창의적 사고와 의사결정을 담당해 왔지만 최근 몇 년간 폭증한 데이터와 인공지능 알고리즘을 활용해 의사 결정을 기계에 위임할 수 있는 시대가 도래했다.

데이터 기반의 의사결정 환경에서 의미 있는 데이터가 풍부할수록 더 정확하게 의사결정을 내릴 수 있고, 최근의 AI 프로그램들은 이제 인간이 평생을 다 배워도 따라갈 수 없는 엄청난 양의 데이터를 학습하고 있다. 그렇다면 AI의 의사결정은 인간보다 결국 우월하게 될 것인가? 아마도 많은 인과관계에서 AI의 판단은 인간을 앞설 수 있다고 본다. 그러나 결국 AI가 개입된 의사결정과 인간에 의한 의사결정의 가장 큰 차이점은 의사결정에 대한 책임의 모호성에 있다. 인간에 의한 의사결정은 그에 대한 책임 주체가 명확하지만, AI가 개입된 의사결정으로 문제가 발생하는 경우 그에 대한 책임을 누가 어떻게 질지 명확하지 않다. 더구나 여기에 윤리적인 모호성까지 겹치는 경우 그 판단은 매우 복잡해진다. 올바른 ESG 경영을 추구하는 기업들이라면 신뢰할 수 있고 윤리적인 AI 서비스를 제공하는 방법을 고민해야 한다.

그래서 각국의 정부, 연구단체, 협회 등 다양한 조직들이 AI 윤리 가이드라인을 제시하고 있으며, 데이터를 다루는 IT 인프라에 가장 정통하다고 할 수 있는 테크 기업인 델 테크놀로지스(Dell Technologies) 또한 유익함, 공평성, 투명성, 지속가능성, AI 보안 및 데이터 프라이버시 등의 AI 윤리 지침을 세워 엄격히 관리하고 있다.

유익함은 기술의 가장 중요한 목적인 인류의 발전을 의미한다. 인간 중심이어야 하며, 인간의 복잡한 개인적, 사회적 필요를 염두에 두고 이를 해결하는 데 집중해야 한다. 공평성은 AI가 불공정한 편견을 피하고 차별, 취약 계층의 소외를 방지해야 한다는 원칙이다. 공평하다는 것이 항상 공정한 것은 아니기 때문에 공정한 결과를 보장하기 위해 AI 시스템에 사람의 감독이나 개입이 필요할 수 있다.

투명성은 AI와 사용자 간의 상호작용에 필수적이다. 사용자가 AI 시스템의 목적, 기능, 한계, 그리고 자신의 데이터가 어떻게 사용될 수 있는지 이해할 수 있어야 하기 때문이다. AI 사용이 투명하고 책임감 있게 이루어질 수 있도록 모니터링하고 검증하는 메커니즘을 구현해야 한다. 특히 AI 시스템이 어떤 데이터와 모델을 기반으로 만들어졌는지 사용자들에게 알려주는 일종의 'AI 자재명세서(BOM)'를 제공하는 것이 바람직하다.

AI는 또한 지속가능성에 실마리를 제공한다. AI에는 막대한 규모의 연산, 데이터 저장, 네트워크 연결이 필요한 만큼, 에너지 소비 또한 급증할 수밖에 없다. 사이버 보안과 개인 정보 보호 또한 AI와 관련해 확실하게 보장되어야 할 사항이다. AI는 인류가 발전시켜 온 여느 기술들보다 더 신중히 다루어져야 한다. 기술 자체가 데이터를 기반으로 작동하는 특성을 이해하고 AI가 미치는 영향력을 감안하여, 데이터 윤리를 기반으로 알고리즘의 편향 없이 올바른 방향성을 찾는 것이 AI 비즈니스의 성패를 좌우하는 중요한 요소가 될 것이다.

[김경진 한국델테크놀로지스 총괄사장]

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.