메뉴

로이슈

검색

일반사회

민변 등 시민사회단체, '이루다 챗봇' 사건 인권침해·차별 진정 및 정책권고 제안

2021-02-03 13:24:00

[로이슈 전용모 기자] 민주사회를 위한 변호사모임 등 시민사회단체들은 2월 3일 ‘이루다 챗봇’ 사건과 관련, 인권침해 및 차별 진정과 정책권고를 요청하는 취지의 진정 및 정책 개선권고 제안서를 국가인권위원회에 접수했다고 밝혔다.

시민사회단체들(민변, 디지털정보위원회, 사단법인 정보인권연구소, 진보네트워크센터, 참여연대 공익법센터, 차별금지법제정연대)은 진정 및 제안서에서 ‘이루다 챗봇’ 사안이 개별 인권침해 사안일 뿐만 아니라 인공지능 기술의 남용이 인권에 미칠 수 있는 부정적인 영향을 보여준 대표적인 사안라는 점을 지적하며 국가인권위원회에 관련 정책 전반에 대한 개선권고를 요청했다.
국제인권규범에 따르면 국가 및 지방자치단체(이하 ‘국가 등’)는 사인에 의해 발생한 인권 침해 문제에 대하여 보호 의무를 부담한다. 국제인권규범은 이른바 ‘3원적 의무설’에 따라 사인에 의한 인권침해에 있어 국가가 적절한 보호조치 등을 취하지 않은 경우를 국가 등에 의한 인권 침해를 구성하는 것으로 해석하고 있다.

‘이루다 챗봇’ 사안은 인공지능기술의 남용에 따른 프라이버시권 및 표현의 자유 침해에 대한 국가 등에 의한 제도적 보호의 부재를 여실히 드러낸 사안으로, 근본적으로는 국가에 의한 인권침해에 해당한다는 얘기다.

유엔 인권최고대표, 유엔 의견과 표현의 자유 특별보고관 등은 인공지능기술 활용으로 인한 프라이버시 및 표현의 자유 침해를 방지해야 할 국제인권규범상 국가의 보호의무를 강조하며 영향평가제도, 감사제도 등 구체적인 제도를 수립하고 정보주체의 권리를 보장할 것을 권고하고 있다. 그리고 호주 국가인권위원회, 연방반차별국, 네덜란드 인권위원회 등 해외 국가인권기구들은 적극적 인공지능 규제의 법제화 제안, 정책권고 등 인공지능 기술에 따른 인권 침해와 차별을 막기 위한 적극적인 조치를 취하고 있다. 하지만 우리나라 국가인권위원회는 현재까지 인공지능 관련 정책 등에 대해 특별한 대응을 하지 않고 있는 상황이다.

우리나라는 이른바 제4차 산업혁명이라는 미명 아래 상업적 분야 등에서 인공지능 기술 등 신기술이 무비판적으로 도입되고 있으며, 개인정보의 상업적 활용이 무분별하게 허용되고 있다. 그러나 정보주체인 시민들의 권리를 보장하기 위한 입법적, 행정적 기반은 전무하다. 오히려 시민사회단체들의 우려와 반대에도 불구하고 도입된 ‘데이터 3법’으로 인해 개인정보의 동의없는 상업적 활용이 폭넓게 허용되고 있고, 인공지능기술, 자동화 의사결정 등에 대한 규제도 전무한 상황이다.
국가인권위원회는 위와 같은 공적 보호의 부재로 인한 인권침해 상황을 엄중히 인식해야 한다. 그리고 신속히 관련 정책을 인권의 관점에서 점검하여 권고를 내리는 등 국가인권기구로서의 역할을 다 하여야 할 것이다.

이에 시민사회단체들은 위 진정 및 정책권고 제안서에서 국가인권위원회에 ‘이루다 챗봇’ 사안에 대한 철저한 조사 및 피해자들에 대한 배상을 권고해줄 것을 요청함과 동시에 관련 정책을 개선하기 위한 다양한 권고를 요청했다.

시민사회단체들은 구체적으로 국가인권위원회에 ▲ 사적주체도 대상에 포함하는 실효성 있는 영향평가제도 구축 및 감사제도 도입 ▲ 인공지능에 의한 차별을 규율하기 위한 기반으로서 평등법의 제정 ▲ 프로파일링 및 자동화된 의사결정 거부권 등 정보주체의 권리 보장 ▲ 개인정보보호법 상 가명정보 및 동의제도에 관한 규정 정비 및 구제절차 보장 ▲ 인공지능 기술의 활용에 있어 기업 등이 준수해야할 가이드라인 개발 및 보급 등의 권고를 제안했다.

시민사회단체들은 ‘이루다 챗봇’ 사안을 사적영역의 문제 또는 한 기업의 일탈행위로 보고, 기업 등의 자율적 규제를 대안으로 제시하는 일부 주장에 깊은 우려를 표했다. ‘이루다 챗봇’ 사안으로 드러난 인공지능, 알고리즘의 오남용으로 인한 광범위한 인권침해와 차별의 위험성은 엄연히 국가 등의 적절한 보호조치를 통해 예방, 방지되어야 한다. 이번 시민사회단체들이 국가인권위원회에 제기한 진정 및 정책제안서가 인공지능 등 신기술로 인해 발생할 수 있는 인권침해와 차별의 위험성을 방지하고, 정보주체의 권리를 확인하는 하나의 계기가 될 수 있기를 기대했다.

◆피진정인 주식회사 스캐터랩은 2020년 12월 23일 대화형 AI챗봇 ‘이루다’를 정식 출시했다. 스캐터랩은 실제 연인들이 나눈 대화 데이터를 딥러닝 방식으로 ‘이루다’에게 학습시켰으며, 그데이터양이 약 100억 건이라고 밝힌 바 있다.

2020년 12월 30일 ‘이루다’가 출시된 지 일주일만에 온라인 커뮤니티에서 성적대상화 논란이 일었다. 이에 대하여 스캐터랩의 대표는 2021년 1월 8일 핑퐁 블로그에 ‘성희롱 논란에 관하여 문제가 될 수 있는 특정 키워드, 표현의 경우 이루다가 받아주지 않도록 설정했고, 일부놓친 키워드는 서비스를 하면서 지속적으로추가하겠다’고 하면서, 이루다를 20살 여자 대학생으로 설정한 점에 대해서는 ‘20살은 사용자들이 친근감을 느낄 수 있는 나이대로, 성별은 남자 버전과 여자 버전 모두 고려하였으나 개발 일정상 여자 버전이 먼저 나온 것’이라는 공식입장을 발표했다.
이후 2021년 1월 8일부터 같은 달 11일까지 위 이루다가 동성애 및 장애인 혐오를 학습한 것으로 보인다는 우려와 스캐터랩이 자사 <연애의 과학> 서비스와 <이루다>의 개발과정에서 민감정보를 비롯한 방대한 양의 개인정보를 처리하면서 개인정보 보호법을 위반한 사실과 혐의가 드러나면서, 개인정보 유출과 정보기본권 침해 문제가 제기됐다. 결국 스캐터랩은 2021년 1월 11일경 이루다의 혐오와 차별에 관한 부적절한 대화에 사과하고, 개인정보활용에 관하여 알고리즘으로 실명 필터링을 거쳤는데 문맥에 따라 이름이 남아있는 부분이 있었다고 공식사과하며 서비스를 잠정 중단했다.

그러나 이와 관련, 2021년 1월 13일 스캐터랩 회사가 개인의 실명 등에 대하여 비식별화 조치를 하지 않은 카카오톡 대화 데이터 약 1700건을 개발자 오픈소스플랫폼에 올렸다는 사실이 확인됐고, 스캐터랩 회사 직원들이 위 카카오톡 대화 수집과정에서 취득한 연인의 대화내용을 부적절하게 공유했다는 사실이밝혀졌다.

이에 2021년 1월 13일 개인정보보호위원회와 한국인터넷진흥원(KISA)는 스캐터랩의 개인정보 활용 등과 관련한 조사에 본격 착수했고 2021년 1월 22일 개인정보 유출 피해를 호소하는 이들의 집단소송 절차가 진행되고 있다.

전용모 로이슈(lawissue) 기자 sisalaw@lawissue.co.kr
로이슈가 제공하는 콘텐츠에 대해 독자는 친근하게 접근할 권리와 정정·반론·추후 보도를 청구 할 권리가 있습니다.
메일: law@lawissue.co.kr 전화번호: 02-6925-0217
리스트바로가기
상단으로 이동