
미국 HR테크 조사기관의 발표에 따르면, 지난 1년 동안 AI 기반 채용 시스템을 도입한 기업이 38%로 급증했습니다. 구체적으로는 다음 기능이 가장 빠르게 확산되고 있습니다.
① AI 이력서 자동 필터링 시스템
- 수십만 개의 이력서를 몇 초 만에 걸러낼 수 있음
- “기업 효율성 상승”이라는 이유로 급격히 도입 확대
② AI 면접(화상 인터뷰) 분석 시스템
- 표정·시선·목소리 톤·말 끊김 등을 분석해 ‘적합도 점수’를 계산하는 방식
- 실제로 미국의 대형 유통·IT·물류 회사들이 이미 사용 중
③ 사내 인사 평가 자동화 시스템
- “성과 예측 모델”로 부서 이동·승진 가능성까지 예측
- 기업들은 인사비 절감 가능성을 장점으로 주장
하지만 동시에 문제가 심각하게 제기되었습니다. AI가 특정 인종·나이·억양·말투를 불리하게 평가하는 편향(algorithmic bias)이 다시 드러난 것입니다. 일부 테스트에서는 단지 나이가 많다는 이유’만으로 점수가 낮게 나오는 사례도 확인되었다고 합니다. 미국 노동부는 AI 채용 시스템을 도입하는 기업에 대해 “차별 책임은 AI가 아닌 기업 본인에게 있다”고 재차 강조했습니다.
심리학적 해설
① ‘객관성의 환상’—AI가 하면 공정하다는 착각
AI는 기계라서 공정할 것이라는 믿음이 널리 퍼져 있습니다. 하지만 인간이 만든 데이터로 학습하는 이상 AI는 인간의 편향을 증폭한 형태로 재생산할 수 있습니다. 이것을 심리학에서는 자동화된 편향(automated bias)이라고 부르죠.
② 평가받는 두려움이 ‘AI 공포’로 확대되다
누구나 면접이나 평가 상황에서는 불안을 느낍니다. 그런데 ‘사람이 아니라 기계가 나를 평가한다’는 사실은 이 불안을 더 깊고 추상적인 형태로 악화시킵니다. → 즉, 불안의 대상이 “구체적 사람”에서 “보이지 않는 알고리즘”으로 바뀌는 심리적 충격이 있습니다.
③ 공정성에 대한 기대가 높을수록 실망도 커진다
AI가 들어오면 공정해질 것이라는 ‘기대치 상승’이 있었기 때문에, AI 편향이 드러날 때 사람들은 기술 자체에 대한 배신감을 크게 느낍니다. 기대가 높을수록 실망도 강해지는 전형적인 심리 반응입니다.
독자에게 던지는 질문
- 여러분이라면 사람 면접관 vs AI 면접관, 어느 쪽이 더 공정하다고 느끼시나요?
- AI가 나를 평가하는 시대에, 우리는 어떤 방식의 새로운 공정성 기준을 만들어야 할까요?
- 그리고 “보이지 않는 알고리즘의 판단”을 신뢰하려면, 어떤 투명성이 확보되어야 한다고 생각하시나요?