<이미지를 클릭하시면 크게 보실 수 있습니다> |
[아시아경제 조슬기나 기자] 정부가 인공지능(AI) 챗봇 '이루다'를 개발하는 과정에서 이용자 동의 없이 무려 60만명의 카카오톡 대화를 무단으로 사용한 개발사 스캐터랩에 총 1억330만원의 과징금과 과태료를 부과했다. AI 기술기업의 무분별한 개인정보 처리에 대한 첫 제재 사례다.
개인정보보호위원회는 28일 오전 제7회 전체회의를 열고 이 같은 내용의 행정처분을 의결했다. 지난 1월 중순 이루다 사태로 관련 조사에 착수한 지 100여일 만의 결정이다. 개인정보위는 스캐터랩에 이루다와 관련한 사항을 포함해 총 8가지 개인정보 보호법 위반행위가 있다고 판단, 과징금 5550만원과 과태료 4780만원 등 총 1억330만원을 부과하고 시정조치를 명령했다.
조사 결과 스캐터랩은 자사의 애플리케이션 서비스인 ‘텍스트앳’과 ‘연애의 과학’에서 수집한 카카오톡 대화를 2020년 2월부터 2021년 1월까지 페이스북 이용자 대상의 챗봇 서비스인 이루다 의 AI 개발과 운영에 이용한 것으로 확인됐다.
스캐터랩은 이루다 AI 모델의 개발을 위한 알고리즘 학습 과정에서, 카카오톡 대화에 포함된 이름, 휴대전화번호, 주소 등의 개인정보를 삭제하거나 암호화하는 등의 조치를 전혀 하지 않고, 약 60만 명에 달하는 이용자의 카카오톡 대화문장 94억여 건을 이용했다.
또한 이루다 서비스 운영 과정에서는, 20대 여성의 카카오톡 대화문장 약 1억 건을 응답 데이터베이스로 구축하고, 이루다가 이 중 한 문장을 선택해 발화할 수 있도록 운영했다.
이는 텍스트앳과 연애의 과학 내 개인정보 처리 과정에서 ▲법정대리인의 동의 없이 만 14세 미만 아동의 개인정보를 수집한 행위 ▲성생활 등에 관한 정보를 처리하면서 별도의 동의를 받지 않은 행위 ▲회원탈퇴한 자의 개인정보를 파기하지 않은 행위 ▲1년 이상 서비스 미사용자의 개인정보를 파기하거나 분리·보관하지 않은 행위 등 개인정보보호법 위반에 해당한다. 조사 과정에서 정보주체가 명확히 인지할 수 있도록 알리고 동의를 받지 않은 사실 등 추가 위반사실도 확인됐다.
특히 개인정보위는 스캐터랩이 텍스트앳과 연애의 과학 개인정보처리방침에 '신규 서비스 개발'을 포함시켜 이용자가 로그인한 것만으로는 이용자가 이루다와 같은 신규 서비스 개발 목적의 이용에 동의했다고 보기 어렵다고 봤다. '신규 서비스 개발'이라는 기재만으로 이용자가 이루다 개발과 운영에 카카오톡 대화가 이용될 것에 대해 예상하기도 어렵고, 이용자의 개인정보 자기결정권이 제한되는 등 이용자가 예측할 수 없는 손해를 입을 우려가 있다는 이유로 스캐터랩이 이용자의 개인정보를 수집한 목적을 벗어나 이용한 것이라고 판단했다.
이루다 관련 정보 처리 과정에서도 ▲법정대리인의 동의 없이 만 14세 미만 아동의 개인정보를 수집한 행위▲수집 목적 외로 이루다 학습·운영에 카카오톡 대화문장을 이용한 행위 등 법 위반이 확인된다.
아울러 개인정보위는 스캐터랩이 개발자들의 코드 공유 및 협업 사이트로 알려진 Github에 2019년 10월부터 2021년 1월까지 이름 22건(성은 미포함)과 지명정보(구·동 단위) 34건, 성별, 대화 상대방과의 관계(친구 또는 연인) 등이 포함된 카카오톡 대화문장 1431건과 함께 AI 모델을 게시한 것에 대해서는 가명정보를 불특정 다수에게 제공하면서 '특정 개인을 알아보기 위해 사용될 수 있는 정보'를 포함하였다는 이유로 '개인정보 보호법' 제28조의2제2항을 위반한 것이라고 판단했다.
출처: 개인정보위 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이번 행정처분 과정에서 이루다 사태와 관련해 전문가들조차 의견이 일치 되지 않는 등 그 어느 때보다 격렬한 논쟁이 있었던 것으로 확인된다. 개인정보위는 그간 이루다 사태가 국민과 산업계에 미치는 영향을 고려해 AI 개발과 서비스 제공 과정에서의 개인정보 처리현황과 법리·기술적 쟁점에 대해 산업계, 법·학계, 시민단체 의견을 수렴하고 수 차례의 위원회 논의 과정을 거쳤다.
윤종인 개인정보위 위원장은 “이번 사건은 기업이 특정 서비스에서 수집한 정보를 다른 서비스에 무분별하게 이용하는 것이 허용되지 않고, 개인정보 처리에 대해 정보주체가 명확하게 인지할 수 있도록 알리고 동의를 받아야 한다는 것을 분명히 했다는 점에 의미가 있다”고 평가했다.
이어 “본 건에 대한 처분 결과가 AI 기술 기업이 개인정보를 이용할 때에 올바른 개인정보 처리 방향을 제시하는 길잡이가 되고, 기업이 스스로 관리·감독을 강화해 나가는 계기가 되기를 바란다”고 덧붙였다.
개인정보위는 AI 기술 기업이 스스로 개인정보 보호 역량을 높일 수 있도록 AI 개발자나 운영자가 현장에서 활용 가능한 'AI 서비스의 개인정보보호 자율점검표'를 발표하고 현장 컨설팅을 지원할 계획이다.
조슬기나 기자 seul@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.