"말하는 AI시대 성큼…'신뢰'보다 '안전'"
전창배 국제인공지능·윤리협회(IAAE) 이사장이 마루 180에서 열린 2024 AI Safety Compass 컨퍼런스에서 개회사를 하고 있다. (IAAE 제공) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
(서울=뉴스1) 손엄지 기자 = 말하고, 보고, 생각하는 인공지능(AI) 기술이 나오면서 AI 윤리 아젠다는 '신뢰'에서 '안전'으로 옮겨가고 있다. 국내에서도 법적·제도적 장치가 빨리 마련돼야 한다는 지적이 나온다.
16일 서울 역삼동 마루(MARU) 180에서 열린 '2024 ASC(AI Safety Compass)'에서 전창배 국제인공지능·윤리협회(IAAE) 이사장은 "기존 AI 윤리 논의에서 신뢰성이 문제였다면 지난해 말부터는 안전성이 구체화하기 시작했다"면서 "AI 윤리와 법제화 주도권을 가져가려는 각국의 경쟁이 치열하다"고 말했다.
이어 "올해 3월 유럽연합(EU)이 세계 최초 AI 법을 통과시켰고 미국은 AI 행정명령을 내렸다"면서 "국내에서도 선제적으로 AI 안전 방향성이 마련돼야 한다"고 강조했다.
현재 과학기술정보통신부가 만든 'AI 기본법'은 국회 계류 중이다. AI 생성물에 워터마크를 달도록 하는 등 신뢰를 위한 최소한의 의무를 담았다.
엄열 과기정통부 AI 정책관은 "빠른 법 통과를 기대한다"면서도 "22대 국회로 넘어가면 원점에서 다시 논의해야 한다"고 우려를 표했다.
초거대언어모델(LLM) 하이퍼클로바X를 출시한 네이버(035420)는 AI 안전성을 위한 업계 노력을 설명했다.
이화란 퓨처AI센터 리드는 "정책을 만들고, 정의를 학습시키고, 트레이닝하고, 모델을 잘 따르게 하는 게 신뢰할 수 있는 언어모델의 4가지 학습법"이라고 했다.
다만 그는 "과거에는 모델이 자의식을 가진 게 위험하다고 느꼈지만 시간이 흐르면서 사회 수용도가 달라지고 있다"고 했다.
이어 "최근 사람처럼 사고하는 멀티모달 AI가 나왔고 새로운 기능이 추가될 때마다 새로운 이슈가 나올 수 있다"며 "이 경우 4가지 학습법으로 AI 안정성을 강화할 것"이라고 말했다.
eom@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.