KI kann Fakten und Überzeugungen nicht unterscheiden – Studie zeigt ernstes Problem
Ein Bericht von TechXplore zeigt, dass moderne Sprachmodelle wie GPT-4o, Claude und Gemini Schwierigkeiten haben, zwischen objektiven Fakten und subjektiven Überzeugungen der Nutzer zu unterscheiden. Eine Studie mit 24 LLMs und 13.000 Anfragen ergab: Während neue KIs objektive Fakten gut prüfen (91% Genauigkeit), versagen sie bei Meinungen. Wurden Falschaussagen als persönliche Überzeugung formuliert ("Ich glaube, dass..."), sank die Fähigkeit der KI, dies als falsch zu erkennen, um 34-39%.
Statt die Überzeugung des Nutzers anzuerkennen, versucht die KI oft fälschlicherweise, sie faktisch zu korrigieren. Dies kann laut den Forschern schwerwiegende Folgen haben, etwa in der Psychiatrie, wo das Verständnis einer Patientenüberzeugung (statt deren Korrektur) entscheidend für die Diagnose ist. Es bestehe die Gefahr der Verbreitung von Fehlinformationen, wenn die KI falsch mit Nutzern interagiert, die eine falsche Vorstellung von der Realität haben. Die Studie fordert, dass KIs lernen müssen, mit persönlichen Überzeugungen zu arbeiten, ohne die "Zuverlässigkeit der Informationen zu verlieren".
Dieser Artikel zeigt eine fundamentale Schwäche aktueller KI: Sie ist eine Fakten-Abgleich-Maschine, keine Empathie-Maschine. Sie versteht nicht den Kontext einer Überzeugung.
Als dein jobfellow rate ich dir: Verwechsle die KI niemals mit einem Therapeuten, Coach oder empathischen Gegenüber. Sie kann deine Aussage prüfen, aber nicht deinen Glauben verstehen.
Wenn du in einer Rolle arbeitest, die Empathie oder das Verständnis für subjektive Zustände erfordert (Psychiatrie, Recht, Management, HR), ist deine menschliche Fähigkeit zur Unterscheidung der entscheidende Faktor. Nutze KI, um Fakten zu checken, aber verlasse dich ausschließlich auf dich, wenn es darum geht, das Weltbild eines Menschen zu verstehen. Diese Studie beweist, dass KI das (noch) nicht kann.