컨텐츠 바로가기

12.05 (목)

이슈 인공지능 시대가 열린다

'책임 있는 AI 개발' 약속한 국내 6개사 "위험 관리 체계 다 만들었다"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
과기정통부 'AI 신뢰·안전성 콘퍼런스'
네이버·카카오·삼성전자·SK텔레콤·KT·LG AI연구원
"AI 서울 기업 서약 이행 위한 안전성 규범 마련"
한국일보

22일 오전 서울 성북구 한국과학기술연구원(KIST)에서 열린 'AI 글로벌 포럼' 개회식 모습. 국내외 14개 기업이 'AI 서울 기업 서약'을 발표했다. 과학기술정보통신부 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


'인공지능(AI) 서울 기업 서약'에 참여한 네이버·카카오·삼성전자·SK텔레콤·KT·LG AI연구원 등 국내 6개 기업이 26일 열린 'AI 신뢰·안전성 콘퍼런스'에 참석해 10월까지 모두 AI 위험관리 체계를 마련했다고 밝혔다.

과학기술정보통신부는 이날 서울 용산구 전쟁기념관에서 AI 분야 대기업과 스타트업, 연구자 200여 명이 참석해 AI 신뢰·안전성 콘퍼런스를 개최하고 기술과 정책 동향을 공유했다고 밝혔다. 이날 행사에는 5월 'AI 서울 기업 서약'에 서명한 국내 6개 기업이 모두 자리했다. AI 서울 기업 서약기업들이 'AI 서울 정상회의' 개최에 맞춰 자발적으로 책임 있는 AI 개발을 이행한다는 내용을 담은 발표다.

이날 발표에 따르면 네이버는 6월 'AI 세이프티 프레임워크(ASF)'를, 카카오는 10월 'AI 세이프티 이니셔티브(ASI)'를 구축했다. 둘 모두 위험도를 스스로 평가한 뒤 위험도가 높으면 AI 서비스의 배포를 중단한다는 내용이 담겼다. 삼성전자·SKT·KT도 각기 AI 안전성 규범을 마련했다. LG AI연구원은 3월부터 AI 위험을 사전에 파악하고 해결하는 'AI 윤리 영향 평가'를 모든 프로젝트에 적용한다고 밝혔다.

연관기사
• 카카오의 AI 개발, 속도보다 안전...위험도 높으면 아예 버릴 각오로 만든다
(www.hankookilbo.com/News/Read/A2024102310560004262)
• "위험도 높으면 서비스 배포 중단"...네이버가 AI 안전 체계 고강수 둔 까닭은
(www.hankookilbo.com/News/Read/A2024061712200002776)


국내 업계는 AI의 신뢰와 안전성 확보를 위한 기술과 평가 기법 등을 만들고 있다. '제2회 AI 신뢰성 대상'을 탄 다비오의 '다비오 어스아이2.0'은 위성·영상 이미지의 공간 정보를 AI를 통해 디지털 데이터로 바꾸는 설루션인데 '신뢰할 수 있는 AI 개발 안내서'를 바탕으로 자체 데이터 품질 관리 프로세스를 수립·적용했다는 평가를 받았다.

이날 기조 연설을 맡은 요슈아 벤지오 몬트리올대 교수는 "AI 안전 확보를 위해 정량적이고 측정 가능한 AI 모델의 위험 평가·관리 기술을 확보해야 한다"면서 "정부의 지원 확대와 AI 안전 연구소의 역할이 필요하다"고 밝혔다.

행사에 참석한 송상훈 과기정통부 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산할 수 있도록 정책 지원을 강화할 것"이라며 "첨단 AI의 잠재적 위험에 대비해 AI 안전연구소를 출범하고 체계적으로 대응해 나가겠다"고 밝혔다.

인현우 기자 inhyw@hankookilbo.com


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.