특히 최근에는 인공지능(AI)이 재범 위험성을 예측하거나 판결을 보조하는 과정에서 기존 사회의 편견을 오히려 강화한다는 비판이 커지고 있다. 실제로 미국에서는 AI 기반 재범 예측 알고리즘이 흑인 피고인의 재범 위험을 과대평가한다는 논란이 지속적으로 제기된다. 알고리즘이 과거 체포 기록과 범죄 데이터를 학습하는 과정에서 기존의 역사적 차별 구조까지 함께 학습한다는 이유에서다.
미국 비영리 언론 프로퍼블리카가 2016년 보도한 'COMPAS' 알고리즘 사례는 대표적이다. 플로리다주 브로워드 카운티 피고인 1만여명을 분석한 결과, 흑인 피고인은 백인 피고인보다 약 두 배 가까이 '고위험군'으로 잘못 분류된 것으로 나타났다.
이런 가운데 미국 스탠퍼드대 인간중심 인공지능 연구소(Stanford HAI) 연구진이 발상의 전환을 제안했다. "AI를 범죄자 평가에 사용하는 대신, 판사·가석방위원·사법기관의 의사결정 자체를 분석하는 데 활용해야 한다"는 것이다.
크리스틴 벨(Kristen Bell·오리건대 로스쿨), 제니 홍(Jenny Hong), 닉 맥키운(Nick McKeown), 카탈린 보스(Catalin Voss·이상 스탠퍼드대) 연구팀은 정책 브리핑 〈형사법에서 머신러닝의 새로운 방향(A New Direction for Machine Learning in Criminal Law)〉을 통해 머신러닝으로 형사사법 시스템 내부의 차별과 불공정 패턴을 추적하는 '리콘(Recon) 접근법'을 제안했다.
이미지 확대보기Stanford HAI 정책 브리핑 〈A New Direction for Machine Learning in Criminal Law〉(2021)에 따르면, 캘리포니아 가석방 심리 기록 3만5105건을 분석한 결과 비(非)백인 수형자는 사선 변호사 선임 가능성이 낮고 심리 과정에서 발언량도 적은 것으로 나타났다. 연구진은 "AI는 피고인의 재범을 예측하는 도구가 아니라, 판사·가석방위원 등 권력기관의 판단 자체를 감시하는 도구로 활용돼야 한다"며 사법 데이터 공개 확대와 독립 분석 위원회 설치가 시급하다고 강조했다. / 이미지 디자인=로이슈 AI 디자인팀(*본 이미지는 기사내용의 이해를 돕기 위해 AI로 생성한 것입니다.)
■ AI 활용, "범죄자 말고 판결 분석에 활용" 돼야
벨 교수팀은 기존 형사사법 AI 활용 방식의 가장 큰 문제로 대부분이 '사람을 예측하는 데 집중한다는 점'을 지적했다.
현재 많은 AI 시스템은 피고인의 재범 가능성, 위험성, 사회 적응 가능성 등을 분석해 판사나 가석방위원회의 판단에 활용되고 있다. 그러나 연구팀은 기존 방식이 차별 구조를 기술적으로 재생산할 위험이 크다고 봤다.
대신 벨 교수팀은 AI를 '피고인'이 아니라 판사·가석방위원·사법기관 등 권력기관의 판단을 분석하는 데 활용해야 한다고 주장한다. 판사·검사·가석방위원이 어떤 기준으로 결정을 내렸는지를 AI로 들여다보고, 그 안에서 불공정 패턴을 찾아내자는 취지다. 연구팀은 새로운 방식을 '리콘 접근법(Recon Approach)'이라고 이름 붙였다.
■ 가석방 기록 3만5105건 분석, "흑인은 발언량마저 적었다"
연구팀은 초기 단계 실험으로 2007년부터 2019년까지 캘리포니아 가석방 심리 기록 3만5105건을 분석했다. 분석 자료는 정보공개 청구를 통해 확보됐다.
분석에는 자연어처리(NLP) 기술이 활용됐다. 컴퓨터가 사람의 말이나 글을 이해할 수 있게 처리하는 기술이다. 방대한 가석방 심리 기록을 컴퓨터로 자동 분석해, 가석방 결정에 영향을 미친 요소들을 뽑아냈다. 범죄 유형, 복역 기간, 심리 평가 점수, 징계 기록, 교육 수준, 검사 출석 여부 등이 분석 대상이었다.
분석 결과 여러 불공정 패턴이 확인됐다.
대표적으로 비(非)백인 수형자는 사선 변호사를 선임할 가능성이 낮았다. 가석방 심리 과정에서 발언량도 백인 수형자에 비해 상대적으로 적은 것으로 나타났다. 연구팀은 두 요소가 가석방 결정에 상당한 영향을 미쳤다고 분석했다.
검사 출석 여부처럼 수형자가 통제할 수 없는 요소 역시 가석방 결과에 큰 영향을 미치는 것으로 나타났다.
■ 비슷한 사건인데 결과 다르면... AI '이상 판결' 골라낸다
리콘 접근법은 크게 두 단계로 구성된다.
첫 번째는 '정찰(reconnaissance)' 단계다. AI가 수천 건의 판결문·심리 기록을 읽고, 어떤 요소가 결정에 영향을 미쳤는지 패턴을 찾는 과정이다.
두 번째는 '재검토(reconsideration)' 단계다. AI가 전체 패턴과 비교해 이례적인 결과가 나온 사건을 찾아낸다.
예를 들어 범죄 유형과 복역 기간, 교도소 생활 등이 비슷한 두 수형자 가운데 흑인 수형자만 가석방이 거부됐다면 AI가 해당 사건을 '이상 사례'로 분류해 추가 검토 대상으로 삼는 식이다.
벨 교수팀은 리콘 접근법을 통해 인간이 발견하기 어려운 구조적 차별 패턴을 보다 효율적으로 찾아낼 수 있다고 설명한다.
■ AI는 판사 대체 못해, 대신 '두 번째 검토 기회' 제공
다만 연구팀은 AI가 인간 판사나 배심원, 가석방위원회를 대체할 수 있다고 보지 않는다.
형사사법은 단순 계산 문제가 아니라 인간의 삶과 존엄이 걸린 영역이라는 점에서, 인간 판사와 가석방위원의 재량(discretion)을 완전히 제거하는 것은 위험하다는 게 연구팀의 판단이다. 사람에게는 '다른 인간에게 자신의 사정을 설명하고 이해받을 권리'가 있다는 점도 강조했다.
연구팀이 보는 AI의 역할은 보조다. 수십 년간 축적된 수십만 페이지 분량의 기록을 빠르게 분석해 인간이 놓친 패턴을 찾아내는 도구라는 것이다.
다시 말해, AI가 판결을 직접 바꾸는 것이 아니다. 인간 판단에 오류 가능성이 있는 사건을 '다시 봐야 할 사건'으로 표시해, 추가 검토 기회를 제공하는 방식이다.
■ AI보다 중요한 건 데이터 접근권, "공공 데이터 공개해야"
대량 데이터를 빠르게 분석할 기술이 있어도, 실제 연구를 위해서는 사법 데이터에 접근할 권리가 먼저 확보돼야 한다는 게 연구팀의 진단이다.
실제로 벨 교수팀은 가석방 대상자의 인종 데이터를 확보하기 위해 캘리포니아 교정당국을 상대로 소송까지 진행했다. 연구는 약 2년 가까이 지연됐다.
연구팀은 "많은 연구기관이 시간과 비용 문제로 비슷한 절차를 감당하기 어렵다"며, 공공기록법 강화와 데이터 공개 확대가 필요하다고 주장한다. 각 주 정부가 독립적인 데이터 분석 위원회를 설치하고, 연구자에게 자료 제공을 거부할 경우 그 사유를 공개하도록 해야 한다고도 제안했다.
■ AI, 시민 감시 아닌 권력기관 감시 도구로 활용 가능
벨 교수팀의 연구는 AI와 머신러닝이 반드시 시민 통제나 감시 강화 수단으로만 사용되는 것은 아니라는 점을 보여준다.
연구팀은 AI가 사람을 평가·예측하는 도구가 아니라, 권력기관의 의사결정을 감시하고 불공정 구조를 드러내는 방향으로 활용될 가능성에 주목한다. 연구팀은 "기술과 정책이 함께 작동할 때 머신러닝은 형사사법 시스템의 투명성과 공정성을 높이는 도구가 될 수 있다"고 강조했다.
▶ 원문 논문 출처
Bell, K., Hong, J., McKeown, N., & Voss, C. (2021). The Recon Approach: A New Direction for Machine Learning in Criminal Law. Berkeley Technology Law Journal, 36(2).
김지연(Jee Yearn Kim) Ph.D. 미국 신시내티 대학교(University of Cincinnati)에서 형사정책학 박사를 취득했다. 현재 동국대 경찰행정학부 법심리연구소 박사후 연구원으로, 생성형 AI 기술 역기능 및 사용자 위험 요인 대응 정책 연구에 참여하고 있다. 주요 연구 분야는 범죄 행위의 심리학, 범죄자 위험 평가, 교정 개입 원칙, 형사사법 실무자 조직행동, 스토킹 범죄자 개입 등이다.