— 법정의 마지막 성역이 흔들리고 있다

AI가 판결을 대신하는 시대는 과연 올까? 얼마 전 Psychology Today가 다룬 “Can AI Jurors Perform Better than Humans?” 기사는 이 질문에 놀라울 만큼 현실적인 답을 제시한다. AI가 인간 배심원을 “대체”할 수 있는지가 아니라, 이미 ‘보조’와 ‘평가’ 수준에서는 인간을 능가하기 시작했다는 점이 핵심이다.
1. 인간 배심원의 한계: 감정과 편향의 총합
배심원 제도의 최대 약점은 심리학 교과서에 나올 만큼 명확하다.
- 외모·인종·성별에 따른 무의식적 편향
- 복잡한 증거를 해석하는 능력의 차이
- 감정적 반응(분노·동정·역겨움 등)에 따른 판단 흔들림
- 피로감, 집중력 저하, 지루함 등이 가져오는 오판
- 스토리텔링을 잘하는 검사·변호사에게 쉽게 끌리는 경향
실제로 연구에 따르면 ‘매력적인 피고인이 더 가벼운 형을 받는다’는 결과가 반복적으로 확인될 정도다. 이 감정과 편향의 총합이 바로 배심원의 약점이다.
2. AI 배심원은 무엇을 잘할까?
AI의 장점은 인간과 정반대에 있다.
- 감정이 없다 → 분노·연민·호감이 영향을 주지 않는다
- 방대한 기록을 몇 초 만에 분석
- 동일한 기준으로 판단을 반복적으로 적용
- 편향 여부를 데이터로 체크 가능
- 배심원 설득·선동에 흔들리지 않는다
특히 AI는 증거 간의 패턴을 인간보다 정확히 잡는다. 수백 개의 진술과 방대한 CCTV 기록, 수십만 자의 문헌을 지치지 않고 동일한 집중력으로 검토할 수 있다.
3. 하지만 AI 판결도 위험하다
그렇다고 AI가 완전한 공정성을 보장하는 것은 아니다.
- 학습 데이터 자체가 편향돼 있으면 AI 편향도 따라간다
- “왜 이렇게 판단했는가?”를 설명하는 과정이 불투명
- 법은 단순 데이터가 아니라 가치·도덕·사회적 감수성의 영역
- 책임 주체의 문제: 잘못된 판결은 누가 책임지는가?
즉, AI가 ‘보다 논리적인 판단’을 내릴 수는 있어도 ‘옳은 판단’을 내릴 수 있는가는 또 다른 문제다.
4. 가장 현실적인 모델: 인간 + AI의 혼합 배심제
전문가들이 가장 현실적으로 보는 구조는 이것이다.
“AI가 편향과 데이터를 체크하고, 인간이 최종 결정을 내린다.”
AI는 다음과 같은 역할을 할 수 있다.
- 증거 요약 제공
- 사건 서사 구조 정리
- 편향 탐지
- 양형 비교 기준 제시
- 증거의 신뢰성 점수 산출
인간 배심원은 AI의 분석을 참고하되, 도덕적 판단·사회적 합의·상식에 기반한 결정을 최종적으로 내린다.
5. 세계의 움직임 — 이미 ‘부분 판결’은 AI가 하고 있다
AI는 이미 일부 국가에서 법원 보조 시스템으로 실전 투입됐다.
- 중국: AI 법원, 판결문 자동 작성, 양형 추천
- 영국: 재판 자료 자동 분석 AI 시범 도입
- 에스토니아: 소액사건을 처리하는 ‘AI 판사’ 실험 운영
“AI 배심원”은 아직 상징적 표현이지만, AI 재판보조 시스템은 이미 제도권 안으로 들어와 있다.
6. AI 배심원이 던지는 근본적 질문
궁극적으로 지금 논쟁의 핵심은 기술이 아니다.
- 우리는 얼마나 공정한 재판을 원하는가?
- 인간이 가진 감정과 편향을 어디까지 인정할 것인가?
- AI가 더 공정한 판단을 내리더라도, 그 판단을 사회가 받아들일 준비가 되어 있는가?
재판은 단순히 옳고 그름을 가르는 절차가 아니다. 사회적 신뢰를 유지하는 장치다. AI 배심원 논쟁이 흥미로운 이유는 바로 이 지점 — 법과 기술, 심리학과 신뢰의 교차점에 놓여 있기 때문이다.
결론
AI는 인간 배심원을 완전히 대체하지 않는다. 그러나 판단의 공정성을 높이는 방향에서 인간을 보조하며, 때로는 인간보다 더 뛰어난 능력을 보여줄 가능성이 충분하다. 미래의 재판은 이렇게 될 것이다.
“인간의 도덕 + AI의 정확성”
→ 가장 공정한 판단을 만들어 내는 새로운 모델