
국민일보 보도에 따르면, 한 필자가 직접 작성한 글이 AI 판독 프로그램에서 AI 작성 의심률 81%로 측정되는 사례가 발생했습니다.
AI 글 판독 업체들은 보통 95~99%의 높은 정확도를 내세우지만, 실제로는 사람이 쓴 글도 AI가 쓴 것으로 오판하는 경우가 있다는 사실이 드러난 겁니다.
심리학 해설
왜 문제가 되는가?
- 학계와 교육 현장: 대학이나 고등학교에서는 학생 과제에 AI 사용 여부를 판별하기 위해 이 도구들을 활용합니다. 그러나 오판이 발생한다면, 성실히 과제를 수행한 학생이 억울하게 불이익을 당할 수 있습니다.
- 언론과 저작권: 기자나 작가가 직접 쓴 원고가 ‘AI 작성물’로 잘못 판정되면, 신뢰도에 치명타를 입을 수 있습니다.
- 비즈니스 현장: 기업 보고서, 논문, 제안서 등에서 AI 작성 판정이 잘못 내려지면, 이해관계자 간의 갈등과 불필요한 의심을 불러올 수 있습니다.
AI 판독이 작동하는 방식
대부분의 AI 판독 도구는 글의 통계적 특징을 분석합니다.
- 언어 패턴: 문장이 지나치게 균일하거나, 단어 반복률이 비정상적으로 높은 경우.
- 확률 분포: 인간은 흔히 비틀린 표현, 불규칙한 구조를 쓰지만, AI는 통계적으로 매끈한 문장을 내놓는 경향이 있습니다.
- 특정 지표(Perplexity, Burstiness)
.👉Perplexity =예측 불가능성. 낮을수록 “AI가 쓴 듯한 글
👉Burstiness = 문장 길이·복잡성의 다양성. 높을수록 “사람이 쓴 듯한 글
한계와 오류
- 사람도 “AI처럼” 글을 쓸 수 있음 : 간결하고 단순한 문장만 쓰면, 판독기가 “AI 글”로 오인할 수 있어요.
- AI도 “사람처럼” 학습 가능 : 최근 GPT 계열 모델들은 사람의 문체를 흉내 내는 데 점점 능숙해져서, 판독기가 구분하기 힘듭니다.
- 데이터 편향 : 판독기가 학습한 텍스트 샘플이 제한적이면, 특정 글쓰기 방식에 대해 과도하게 “AI 가능성”을 높게 잡습니다
그러나 최근 AI가 사람처럼 글을 쓰는 능력이 급속히 발전하면서,
- 사람이 글을 AI처럼 쓴 경우 (짧고 단순한 문장, 특정 패턴 반복)
- AI가 사람처럼 글을 쓴 경우
이 둘을 구분하기 점점 어려워지고 있습니다.
즉, ‘AI 감별사’로 불리는 도구들이 기술적으로 이미 한계에 다다르고 있다는 비판이 제기됩니다.
현재의 결론
- AI 글인지 100% 판정”은 불가능합니다.
- 판독기는 참고용 보조 도구일 뿐, 결과를 그대로 믿으면 억울한 사례가 발생합니다.
- 실제로 많은 학자와 교육기관에서도 “AI 판독기는 절대적 기준으로 사용하지 말라”는 권고를 내고 있습니다.
파급 효과
- 사회적 불신 확산
“이 글, 네가 쓴 거 맞아?”라는 의심이 점점 더 일상화될 수 있습니다. 이는 교육, 언론, 출판, 직장 내 보고 체계 등 사회 전반에 불신을 퍼뜨릴 수 있습니다.
- 정책·제도적 대응 필요
학교나 기관에서 AI 판독 도구의 결과를 곧이곧대로 받아들이는 것은 위험합니다. 판독 결과를 ‘보조적 자료’로 활용하되, 최종 판단은 반드시 사람의 검증을 거쳐야 한다는 점이 강조됩니다.
전문가 의견
전문가들은 이번 사례를 통해 다음과 같은 교훈을 지적합니다.
- AI 감별 기술의 한계를 솔직하게 인정해야 한다.
- 판별 결과를 절대적 기준으로 삼지 말고, 맥락적·인간적 판단과 병행해야 한다.
- 장기적으로는 AI를 구분하기보다, 책임 있는 사용을 촉진하는 제도가 필요하다.
마무리
AI가 글을 쓰고, 또 다른 AI가 그것을 판별하는 시대가 왔습니다. 그러나 판별 기술이 완벽하지 않은 상황에서 무턱대고 신뢰한다면, 억울한 피해자만 늘어날 수 있습니다. 특히 문장을 짧게 쓰는 사람은 AI로 오인될 가능성이 아주 높습니다.
이번 사건은 “AI 시대의 신뢰 문제”를 우리 사회가 본격적으로 고민해야 할 때임을 보여주는 사례라 할 수 있습니다.