
AI가 제시하는 답변을 접할 때, 사람들은 흔히 양가적인 태도를 보입니다.
“이게 진짜 맞을까?” 하고 의심하면서도, 막상 중요한 순간에는 그 답변을 참고하거나 그대로 따르곤 합니다. 왜 우리는 AI를 불완전하다고 생각하면서도 동시에 의존할까요?
자동화 편향 – 기계는 더 정확하다는 믿음
심리학에는 자동화 편향(automation bias)이라는 개념이 있습니다. 인간은 기계가 내린 판단을 사람보다 더 정확하다고 여기고, 기계의 오류를 쉽게 간과하는 경향이 있습니다. AI의 답변을 곧이곧대로 따르는 현상도 여기에 해당합니다.
권위 편향 – 전문가의 말처럼 들리는 효과
AI의 답변은 때때로 권위자의 말처럼 느껴집니다. 구조적으로 명확하고 자신감 있게 표현되기 때문에, 실제로 맞는지 아닌지를 떠나 사람들은 쉽게 설득당합니다. 일종의 권위 편향(authority bias)이 작동하는 것이지요.
신뢰와 불안 사이
흥미로운 점은, 우리는 AI를 완전히 믿지도, 완전히 버리지도 못한다는 겁니다. 작은 오류에도 불신이 커지지만, 동시에 막상 선택의 순간이 오면 AI가 제공하는 방대한 정보와 빠른 답변에 기대게 됩니다. 그 결과, 의심과 신뢰가 공존하는 독특한 관계가 형성됩니다.
앞으로의 과제
AI와 함께 살아가는 사회에서 중요한 것은 맹목적 신뢰도, 무조건적 불신도 아닙니다. 인간의 비판적 사고와 AI의 효율성을 균형 있게 결합하는 지혜가 필요합니다. 그것이야말로 AI 시대에 우리가 가져야 할 새로운 형태의 ‘신뢰’일 것입니다.