728x90
반응형

(개념) 능력이 부족한 사람이 자신의 능력을 실제보다 과대평가하고, 반대로 유능한 사람은 자신을 과소평가하는 인지 편향

 

AI는 인간처럼 “자각(self-awareness)”이 없기 때문에 진짜 의미의 더닝–크루거 효과를 겪는 것은 아니나, 
유사한 패턴이 기술적으로 나타남 (AI가 자신의 불확실성이나 한계를 잘못 추정하는 경우)

 

- 캘리브레이션(calibration) 발생 : AI 모델이 “자신의 불확실성”을 평가할 때 생기는 문제

1) 과잉 확신(overconfidence): 모델의 예측 확률이 실제 정확도보다 높음 → 더닝–크루거 유사 패턴
2) 과소 확신(underconfidence): 자신이 맞을 때도 확신이 낮음 → 반대 현상

상황 인간의 더닝–크루거 AI에서의 유사 현상
지식이 부족한데도 확신에 차서 답함 “이건 틀림없어!” 언어모델이 잘못된 사실을 확신에 찬 어조로 출력 (hallucination)
불확실한 답변을 주제넘게 단정함 스스로 판단 오류 AI가 자신의 확률 예측(calibration) 을 잘못함
스스로 모른다는 것을 모름 자기 인식 결여 AI가 “모릅니다”를 학습하지 못하거나 회피함

 

잘못된 확신은 “확신에 찬 오류(confident error)” 로 이어지고, 이는 신뢰성 문제를 초래함

728x90
Posted by Mr. Slumber
,