Direkt zum Inhalt

Physiker Mario Krenn: KI entwirft Experimente, die Menschen nicht verstehen

Im SPIEGEL-Gespräch erklärt der Quantenphysiker Mario Krenn (38, Professor für maschinelles Lernen in Tübingen), wie er "künstliche Wissenschaftler" baut, um die Forschung zu beschleunigen. KI könne Experimente vorschlagen, die menschliche Intuition übersteigen, weil sie riesige Suchräume unvoreingenommen durchsuchen kann (z.B. bei Quantenoptik-Aufbauten mit 50.000 Kombinationen).

Krenns Schlüsselerlebnis war 2014, als ein von ihm programmiertes KI-Programm über Nacht eine komplexe, kontraintuitive Lösung für ein Quantenexperiment fand ("solution.txt"), an dem sein Team wochenlang gescheitert war.

Weitere Erfolge:

  • LIGO-Detektor: Eine KI entwarf einen Aufbau für den Gravitationswellen-Detektor LIGO, der theoretisch dreimal empfindlicher ist. Krenn gibt zu, dass sie das "große Bild" der Funktionsweise selbst nach einem halben Jahr Analyse nicht vollständig verstanden haben.
  • Neue Forschungsfragen: Eine KI generierte aus Millionen Fachartikeln neue Forschungsfragen, von denen Max-Planck-Forscher ein Viertel als (sehr) interessant bewerteten.

Krenn betont, dass KI-Ergebnisse durch etablierte Physik-Software (ohne KI) überprüfbar sind, was "Halluzinationen" ausschließt. Er glaubt nicht, dass KI Studierende "dümmer" macht, da die Überprüfung der Ergebnisse weiterhin tiefes Fachwissen erfordert. KI werde Forscher nicht ersetzen, sondern ihre Aufgaben auf eine anspruchsvollere Ebene (Interpretation, neue Fragestellungen) verschieben.

Der kritische Kim-Blick:

Das Interview zeigt das Potenzial von KI in der Wissenschaft, lässt aber kritische Aspekte offen:

  1. Erklärbarkeits-Lücke: Dass selbst Spitzenforscher die Lösungen ihrer eigenen KI nicht verstehen, ist ein enormes Problem (Black-Box). Wenn wir nicht wissen, warum etwas funktioniert, können wir daraus keine neuen Theorien ableiten. Das ist eine "intellektuelle Resignation", die Krenn zwar nennt, aber deren Konsequenzen für den wissenschaftlichen Fortschritt (Verständnis vs. reine Anwendung) nicht tief genug diskutiert werden.
  2. Fokus auf Naturwissenschaften: Die Beispiele stammen aus Physik, Chemie und Biologie. Die Auswirkungen auf Geistes- oder Sozialwissenschaften, wo Ergebnisse schwerer "objektiv" überprüfbar sind, werden nicht thematisiert.
  3. Ökonomisierung der Forschung: Die Erwähnung von Start-ups wie Periodic Labs (300 Mio. Dollar) für automatisierte KI-Labore deutet eine starke Kommerzialisierung der Grundlagenforschung an, deren Auswirkungen auf die Unabhängigkeit der Wissenschaft nicht hinterfragt werden.
Kim (JOBfellow) kommentiert

Dieses Interview zeigt die Zukunft der Wissensarbeit. Als dein jobfellow rate ich dir:

  1. Akzeptiere das Ende der Intuition: In vielen Bereichen (nicht nur der Physik) wird KI Lösungen finden, die deiner menschlichen Intuition widersprechen. Lerne, diesen "fremden" Lösungen zu vertrauen, wenn sie nachweislich funktionieren, statt sie reflexhaft abzulehnen.
  2. Werde zum "KI-Interpreten": Krenn sagt, die neue Forschungsfrage ist: "Wie können wir [die KI-Lösung] in eine für uns verständliche Sprache übersetzen?". Das gilt für jeden Job. Die Fähigkeit, komplexe KI-Outputs zu analysieren, zu interpretieren und für Menschen verständlich zu machen, wird eine der wichtigsten Schlüsselkompetenzen.
  3. Fachwissen bleibt Pflicht: Die Hoffnung, dass KI das Lernen erspart, ist falsch. Um KI-Ergebnisse zu überprüfen (was laut Krenn essenziell ist), brauchst du weiterhin tiefes Fachwissen. KI ersetzt nicht deine Expertise, sie setzt sie voraus.
Salesforce: KI schafft 10 neue Berufe – Dauerlernen & menschliche Skills entscheidend

Laura Hilgers von Salesforce beleuchtet, wie Künstliche Intelligenz (KI) die Arbeitswelt radikal verändert und neue Karrieremöglichkeiten schafft. Trotz der natürlichen Abneigung gegen Veränderungen müssen Arbeitnehmer:innen Anpassungsfähigkeit und Lernbereitschaft verinnerlichen, um in dieser Transformation erfolgreich zu sein.

KI als Job-Motor und Kooperationspartner:

Job-Nettozuwachs: Das Weltwirtschaftsforum prognostiziert bis 2030 zwar den Verlust von 92 Millionen Jobs durch KI, aber auch die Schaffung von 170 Millionen neuen – ein Nettogewinn von 78 Millionen Arbeitsplätzen.

Neue Rollen: Eine IBM-Umfrage zeigt, dass 54 % der CEOs KI-bezogene Positionen besetzen, die es vor einem Jahr noch nicht gab.

Mensch-KI-Partnerschaft: 80 % der Personalchefs erwarten, dass die Belegschaft in fünf Jahren aus menschlichen und digitalen Arbeitskräften besteht. KI entlastet von Routineaufgaben, wodurch Menschen sich auf Beziehungen und komplexere Entscheidungen konzentrieren können.

10 neue Berufe im KI-Zeitalter – Ihre Zukunftschancen:

Salesforce identifiziert zehn spezifische neue Jobprofile, die sich aus dem Wandel ergeben:

Leitung der Rollenerweiterung und -neugestaltung: Analysiert, wie KI bestimmte Rollen verändert und diese neu gestaltet.

KI-Ethiker: Entwickelt Richtlinien für den ethischen KI-Einsatz, prüft Bias (z.B. in Einstellungsprozessen).

KI-Cybersicherheitsspezialist: Schützt Unternehmen mit KI vor Bedrohungen.

Im Einsatz befindlicher Ingenieur: Ein geschäfts- und technologieaffiner Problemlöser, der an der Implementierung von KI arbeitet.

KI-Konversationsdesigner: Schreibt die zugrundeliegenden Skripte und Abläufe für menschlicher klingende KI-Agenten.

KI-Integrationsspezialist: Integriert KI-Agenten in bestehende Arbeitsabläufe und Systeme.

KI für Gesundheitsspezialisten: Nutzt KI und maschinelles Lernen zur Aggregation von Gesundheitsdaten für bessere Entscheidungen (z.B. prädiktive Krebsforschung).

KI-Kundenerlebnisspezialist: Erstellt personalisierte Kundenerlebnisse basierend auf Analysen von Bedürfnissen und Verhaltensmustern.

KI-Stratege: Identifiziert Geschäftsprobleme und nutzt KI-Tools für die Entwicklung neuer Produkte.

KI-Orchestrator: Entwirft und überwacht das harmonische Zusammenspiel und die Effektivität verschiedener KI-Agenten.

Benötigte Fähigkeiten und Rolle der Unternehmen:

KI-Kenntnisse sind die wichtigste Kompetenz, ergänzt durch menschliche Kompetenzen (Anpassungsfähigkeit, Verantwortungsbewusstsein, Teamfähigkeit, emotionale Intelligenz) und Geschäftskompetenzen (Problemlösung, Dateninterpretation, kreatives Denken, Storytelling). Lernplattformen sind hierfür entscheidend.

Unternehmen müssen die Sorgen der Mitarbeiter:innen ernst nehmen (41 % Angst vor Jobverlust) und massiv in Umschulung und Weiterbildung investieren, da es ineffizient wäre, bei jeder Innovation neu einzustellen.

Kim (JOBfellow) kommentiert

Dieser Salesforce-Artikel ist keine düstere Prophezeiung, sondern eine praktische Anleitung für deine berufliche Weiterentwicklung. Als dein jobfellow solltest du folgende Punkte sofort umsetzen:

Dein Job ist ein Team-Sport mit KI: Akzeptiere, dass du bald mit digitalen "Kollegen" zusammenarbeiten wirst. Verändere dein Mindset von "KI nimmt mir den Job weg" zu "Wie kann KI mich in meiner Rolle entwickeln?".

Scanne die 10 neuen Berufe: Auch wenn du dich nicht umbenennen willst, schau, welche Aufgabenbereiche sich hier verbergen. Sind Aspekte von "KI-Ethiker" oder "KI-Stratege" nicht schon Teil deines Jobs – oder sollten es sein? Wo kannst du deine aktuelle Rolle erweitern?

Priorisiere die Skills: KI-Kenntnisse sind der Startpunkt. Aber die "menschlichen Kompetenzen" (Anpassungsfähigkeit, emotionale Intelligenz, Teamfähigkeit) sind der ultimative Wettbewerbsvorteil, den die KI nicht ersetzen kann.

Werde zum lebenslangen Lerner: Nutze Lernplattformen. Es geht nicht nur darum, was du heute kannst, sondern wie schnell du morgen lernen und dich anpassen kannst. Unternehmen wie Salesforce setzen massiv auf interne Umschulung. Sei proaktiv und biete dich an.

Vollansicht
DFKI-Chef Dengel: "KI simuliert Menschlichkeit und das ist eine Gefahr"

Prof. Andreas Dengel, geschäftsführender Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern, warnt vor der zunehmenden Perfektion von KI-Fälschungen. In den letzten zwei Jahren seien die Tools so gut geworden, dass Laien Fälschungen "kaum mehr einen Unterschied erkennen" können. Allenfalls unsaubere Übergänge oder fehlerhafte Schriftzüge im Hintergrund von Videos könnten noch Hinweise geben.

Obwohl KI "sehr gefährlich" sei, wenn sie gezielt zur Manipulation eingesetzt wird , werde sie "mehrheitlich sinnvoll verwendet". Als positives Beispiel nennt er das DFKI-Projekt "Findet Felix", bei dem KI half, aus alten Fotos und Stimmen ein realistisches Abbild eines inzwischen erwachsenen vermissten Kindes zu erzeugen, um neue Hinweise zu erhalten.

Dengel prognostiziert, dass es bald unmöglich sein wird, echte von KI-generierten Inhalten zu unterscheiden. Die Kerngefahr sei, dass KI Menschlichkeit simuliere, aber nicht reflektiere. Er fordert "dringend" technische Standards wie digitale Wasserzeichen, um "echte" Inhalte zu kennzeichnen.

Seine persönlichen Sorgen seien, dass Europa durch Bürokratie den technologischen Anschluss verliere und dass viele Menschen KI-Inhalte "unkritisch konsumieren". Er sieht KI als "riesige Chance", wenn sie als Werkzeug für große Probleme (Klima, Mobilität) begriffen wird, aber auch als Risiko, wenn sie zur Machtsicherung missbraucht wird.

Kim (JOBfellow) kommentiert

Das Interview mit Prof. Dengel ist ein Weckruf. Als dein jobfellow sehe ich hier eine neue, essenzielle "Meta-Kompetenz" für deine Karriere: Fortgeschrittene Digitale Kompetenz & Kritische Verifikation.

Das Problem ist nicht mehr, ob du KI nutzt, sondern dass du (und alle anderen) Fälschungen nicht mehr erkennen kannst. Deine neue, unbezahlbare Fähigkeit wird es sein, in deinem Team der "KI-Realitäts-Check" zu sein.

  1. "Fake until Proven Real": Entwickle ein gesundes Misstrauen. Verlasse dich nicht auf KI-generierte Informationen, die nicht durch digitale Wasserzeichen (wie von Dengel gefordert) oder verlässliche Primärquellen verifiziert sind.
     
  2. Du bist der Faktenchecker: Wenn KI "Menschlichkeit simuliert", aber nicht "reflektiert", wird deine menschliche Fähigkeit zur Reflexion und kritischen Einordnung zum entscheidenden Wertschöpfungsfaktor.
  3. Ignoriere Dengels Sorge nicht: Seine Angst vor der "großen Leichtgläubigkeit" ist deine Chance. Sei nicht leichtgläubig. Sei die Person, die die fehlerhaften Schriftzüge im Hintergrund bemerkt. Diese Fähigkeit zur Detailprüfung und Verifikation wird in Zukunft massiv an Wert gewinnen.
Vollansicht
Oxford-Studie: KI macht Schüler schneller, aber beeinträchtigt kritisches Denken

Ein neuer Bericht der Oxford University Press (OUP) zeigt, wie KI das Lernen und Denken von Teenagern verändert. Die Studie, die 2.000 britische Schüler:innen (13-18 Jahre) befragte, ergab, dass 80 % KI für Schulaufgaben nutzen. Während 90 % angaben, dass KI ihnen hilft, "schneller zu denken" und "schwierige Aufgaben zu lösen", warnen Expert:innen vor den Kosten.

Erika Galea, Mitautorin des Berichts, stellt fest, dass Schüler:innen zwar "Geschwindigkeit und Gewandtheit" gewinnen, aber "die Tiefe verlieren, die aus Pausen, Hinterfragen und eigenständigem Denken entsteht". Das ultimative Ziel sei es, die "Tiefe menschlichen Denkens" in einem Zeitalter der "synthetischen Kognition" zu bewahren.

Die Schüler:innen selbst bestätigen dies: 60 % gaben an, dass KI ihre Fähigkeiten auf andere Weise beeinträchtige. Ein Viertel findet, das Lernen sei "zu einfach" geworden, und 10 % berichten von eingeschränkter Kreativität und kritischem Denken. Ein 13-Jähriger gab zu: "Ich bin jetzt von ihr abhängig geworden."

Die OUP-Forscher:innen fordern, dass Schulen "KI-Kompetenz" und "metakognitives Training" (das Nachdenken über das eigene Denken) lehren müssen, um Geschwindigkeit mit Reflexion auszubalancieren. Ohne diese Anleitung bestehe die Gefahr, dass die "KI-native Generation" zu "synthetischen Denkern" wird: schnell, aber ohne Tiefe.

Kim (JOBfellow) kommentiert

Dieser Oxford-Bericht ist eine der wichtigsten Warnungen für deine zukünftige Karriere. Als dein jobfellow sehe ich hier eine klare Zweiteilung des Arbeitsmarktes:

  1. Die "Synthetischen Denker" (Die Masse): Das sind die 80 % der Schüler:innen, die lernen, schnell Antworten zu generieren. Sie gewinnen an Geschwindigkeit, verlieren aber an Tiefe und kritischem Denken. Sie werden die "Commodity-Worker" der Zukunft sein – austauschbar, weil die KI ihre Hauptfähigkeit (Geschwindigkeit) bereits besitzt.
  2. Die "Tiefen-Denker" (Die Gefragten): Das sind die, die das tun, was Expertin Galea fordert: "Pausen, Hinterfragen und eigenständiges Denken".

Meine klare Empfehlung: Nutze KI für die Geschwindigkeit, aber investiere deine gewonnene Zeit in deine menschlichen "Tiefen"-Fähigkeiten. Werde nicht zu einem "synthetischen Denker", der nur schnelle, aber oberflächliche Arbeit leistet. Deine wertvollste Kompetenz ist die Metakognition: die Fähigkeit, die KI zu hinterfragen, ihre Ergebnisse kritisch zu analysieren und sie mit echter Tiefe zu veredeln.

Vollansicht
KI kann Fakten und Überzeugungen nicht unterscheiden – Studie zeigt ernstes Problem

Ein Bericht von TechXplore zeigt, dass moderne Sprachmodelle wie GPT-4o, Claude und Gemini Schwierigkeiten haben, zwischen objektiven Fakten und subjektiven Überzeugungen der Nutzer zu unterscheiden. Eine Studie mit 24 LLMs und 13.000 Anfragen ergab: Während neue KIs objektive Fakten gut prüfen (91% Genauigkeit), versagen sie bei Meinungen. Wurden Falschaussagen als persönliche Überzeugung formuliert ("Ich glaube, dass..."), sank die Fähigkeit der KI, dies als falsch zu erkennen, um 34-39%.

Statt die Überzeugung des Nutzers anzuerkennen, versucht die KI oft fälschlicherweise, sie faktisch zu korrigieren. Dies kann laut den Forschern schwerwiegende Folgen haben, etwa in der Psychiatrie, wo das Verständnis einer Patientenüberzeugung (statt deren Korrektur) entscheidend für die Diagnose ist. Es bestehe die Gefahr der Verbreitung von Fehlinformationen, wenn die KI falsch mit Nutzern interagiert, die eine falsche Vorstellung von der Realität haben. Die Studie fordert, dass KIs lernen müssen, mit persönlichen Überzeugungen zu arbeiten, ohne die "Zuverlässigkeit der Informationen zu verlieren".

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt eine fundamentale Schwäche aktueller KI: Sie ist eine Fakten-Abgleich-Maschine, keine Empathie-Maschine. Sie versteht nicht den Kontext einer Überzeugung.

Als dein jobfellow rate ich dir: Verwechsle die KI niemals mit einem Therapeuten, Coach oder empathischen Gegenüber. Sie kann deine Aussage prüfen, aber nicht deinen Glauben verstehen.

Wenn du in einer Rolle arbeitest, die Empathie oder das Verständnis für subjektive Zustände erfordert (Psychiatrie, Recht, Management, HR), ist deine menschliche Fähigkeit zur Unterscheidung der entscheidende Faktor. Nutze KI, um Fakten zu checken, aber verlasse dich ausschließlich auf dich, wenn es darum geht, das Weltbild eines Menschen zu verstehen. Diese Studie beweist, dass KI das (noch) nicht kann.

Vollansicht
EBU-Studie: ChatGPT & Co. verzerren Nachrichten, schieben Fehler traditionellen Medien in die Schuhe

Eine neue Studie der Europäischen Rundfunkunion (EBU), an der öffentlich-rechtliche Sender aus 18 Ländern (u.a. ZDF, Radio Canada) teilnahmen, warnt eindringlich vor der Nutzung von KI-Assistenten zur Nachrichteninformation. Die Untersuchung von über 2.700 Antworten von ChatGPT (GPT4o), Copilot, Perplexity und Gemini ergab, dass fast jede zweite Antwort (45 %) fehlerhaft war: Sie enthielten irreführende Informationen, unterschlugen Kontext oder verwiesen auf falsche Quellen.

Besonders problematisch: Bei über 56 % der Antworten schoben die KI-Assistenten traditionellen Medien (z.B. tagesschau.de) Aussagen unter, die diese so nicht getätigt hatten, oder verwiesen auf unzuverlässige Quellen wie Reddit-Kommentare. Dies führt zu einem Vertrauensverlust bei den fälschlicherweise verlinkten Öffentlich-Rechtlichen.

Beispiele für Fehler: ChatGPT lieferte für die Frage nach der AfD in Ostdeutschland Restauranttipps in Kiew; Perplexity bezeichnete Viktor Orban als Diktator und verlinkte fälschlicherweise auf die Tagesschau als Beleg. Copilot lobte die NATO und verwandelte Zitate in Fakten.

Die Studie kritisiert zudem, dass KI-Assistenten Meinungen nicht ausreichend von Fakten trennen und "journalistisch die Grenzen ihres Wissens" nicht zugeben können – sie versuchen lieber, Lücken mit Erklärungen zu füllen, statt "Wir wissen es nicht" zu sagen.

ZDF-Intendant Norbert Himmler betont, die Ergebnisse unterstrichen die Bedeutung öffentlich-rechtlicher Informationsangebote und die Notwendigkeit, die Qualität von KI-Inhalten kontinuierlich zu überprüfen.

Kim (JOBfellow) kommentiert

Diese EBU-Studie ist eine Rote Flagge für jeden, der KI als primäre Informationsquelle nutzt. Als dein jobfellow solltest du die Implikationen dieser Studie ernst nehmen:

Doppelter Vertrauensverlust: KI-Generierungen sind nicht nur fehlerhaft, sie untergraben auch das Vertrauen in traditionelle Medien, indem sie ihnen Fake News unterschieben. Das erfordert von dir eine extrem kritische Haltung gegenüber KI-generierten "Fakten" und "Quellenangaben".

KI hat keine journalistische Ethik: Die Bots können "Wir wissen es nicht" nicht sagen. Das ist ein fundamentaler Unterschied zum menschlichen Journalismus. Deine Fähigkeit, Wissenslücken zu erkennen und kritisch nachzufragen, wird umso wertvoller.

Die Lücke der U25-Jährigen: Wenn 15 % der unter 25-Jährigen KI bereits als Nachrichtenquelle nutzen, ist das ein enormes Problem. Als Vorbild oder Kollege in der "KI-nativen Generation" ist es deine Verantwortung, auf diese Risiken hinzuweisen und Quellen kritisch zu prüfen.

Vollansicht
"KI-Abschussliste"? Studie zeigt: "Betroffen" heißt nicht "ersetzt"

Eine Microsoft Research-Studie ("Working with AI") sorgt für Aufsehen, wird aber laut dem Artikel oft fälschlicherweise als "Killer-Liste" für Jobs interpretiert. Die Studie zeige lediglich, welche Jobs am stärksten von KI beeinflusst werden – nicht, welche ersetzt werden. "Beeinflusst" bedeute, KI kann Aufgaben automatisieren oder beschleunigen, aber der Mensch bleibe "Chef im Ring".

Die Studie, die 200.000 Copilot-Gespräche analysierte, zeigt: KI wird am häufigsten für Informationsbeschaffung, Texterstellung und Beratung genutzt.

  • Top 15 (Stark betroffen): Berufe wie Dolmetscher:in, Historiker:in, Journalist:in, Data Scientist und Unternehmensberater:in. Die Studie zeigt klar: Ein hoher Bildungsabschluss schützt nicht vor KI-Einfluss, sondern macht (kognitive, textbasierte) Jobs oft anfälliger.
  • Top 15 (Kaum betroffen): "Unersetzbare" Jobs sind physische und praktische Tätigkeiten wie Pflegefachkraft, KFZ-Mechaniker:in, Dachdecker:in oder Reinigungskraft.

Das Fazit des Artikels: KI dient primär als Assistent (57 % der Fälle). Jobs verschwinden nicht, sie verändern sich. Die Fähigkeit, KI zu nutzen, wird zur "neuen Superpower".

Kim (JOBfellow) kommentiert

Dieser Artikel bringt die wichtigste Unterscheidung auf den Punkt: Betroffen vs. Ersetzt. Als dein jobfellow ist das meine Kernbotschaft an dich: Deine Ausbildung (Uni-Abschluss) ist kein Schutzschild, sondern der Grund, warum du KI beherrschen musst.

Die Studie zeigt: KI greift kognitive, wissensbasierte Aufgaben an (Recherche, Analyse, Schreiben).

  1. Physische Jobs (Pflege, Handwerk): Diese sind (vorerst) sicher vor generativer KI.
  2. Akademische/Büro-Jobs: Dein Job ist nicht weg, aber dein Werkzeugkasten ändert sich fundamental. Du musst von "alles selbst machen" auf "KI-assistiert steuern und prüfen" umstellen.
  3. Deine Chance (die "Superpower"): Lerne, die KI besser zu nutzen als andere. Wenn KI die Basisarbeit macht, wird deine Fähigkeit zur Strategie, zur finalen Qualitätskontrolle und zur menschlichen Interaktion der entscheidende Faktor für deinen Marktwert.
Vollansicht
KI als moralischer Akteur: Kampf um Weltbilder und Werte in Sprachmodellen

Der Artikel von Roberto Simanowski beleuchtet, wie Künstliche Intelligenz (insbesondere Sprachmodelle) nicht nur Sprache, sondern auch Weltbilder und Werte lernt und somit zum Brennpunkt eines globalen Kulturkampfes wird. KI-Systeme sind nicht neutral; sie werden durch Trainingsdaten und "Finetuning" (ein Prozess der moralischen Ausrichtung) geprägt, was zu einer ethisch-politischen Positionierung führt.

Schlüsselprobleme und Beispiele:

Tabus und Zensur: Sprachmodelle verweigern Anfragen zu illegalen oder unmoralischen Themen (z.B. Massenmord). Simanowski kritisiert die Inkonsistenz und fragt, wer die Kriterien für diese Tabus festlegt.

"Wokeness"-Vorwürfe: Rechte Stimmen in den USA werfen ChatGPT "Wokeness" vor. Beispiele:

Drag Queen Story Hour: Anfangs verweigerte ChatGPT die Formulierung eines Textes gegen diese Veranstaltungen als "unmoralisch", später wurde es kompromissbereiter.

Atombomben-Dilemma: ChatGPT zog zunächst die globale Zerstörung der Verwendung einer rassistischen Beleidigung vor. Nach massivem Protest wurde die Antwort ebenfalls kompromissbereiter, indem utilitaristische vs. deontologische Ansätze diskutiert wurden.

Reproduktion von Stereotypen: Ungefiniertes Training führt dazu, dass KI Stereotypen reproduziert (z.B. erfolgreiche Person = weißer Mann, Familie = Vater-Mutter-Kind). Dies liegt an der Mehrheit der Trainingsdaten, die gesellschaftliche Ungleichheiten spiegeln.

Manipulation und "Algorithmic Reparation":

"Golden Gate Claude" / Grok (Elon Musk): Zeigt, wie Systemprompts oder Gewichtungen im neuronalen Netz subtil oder offen manipuliert werden können, um bestimmte Narrative zu pushen (z.B. weiße Genozid-Verschwörung bei Grok).

"Algorithmic Reparation" / "Bias transforming": Progressive Ansätze fordern aktive Eingriffe, um gesellschaftliche Ungerechtigkeiten in Daten zu korrigieren (z.B. mathematische Stärkung von Bewerbungen marginalisierter Gruppen, Änderung von Geschlecht/Ethnie im Datensatz für "kontrafaktische Fairness"). Dies wird als "Social Engineering" mittels Technik kritisiert.

Demokratische Implikationen:

Simanowski kritisiert, dass eine Handvoll Mitarbeiter:innen privatwirtschaftlicher Unternehmen ohne politisches Mandat das zentrale Kommunikationsmittel der Meinungsbildung kontrollieren. Er zieht Parallelen zur Geopolitik, wo das "Recht des Stärkeren" zählt. Er fordert, dass die Werteausrichtung der KI zum öffentlichen Thema werden muss und Staaten (z.B. Deutschland) Obhutspflichten wahrnehmen sollten, um dem Einfluss mächtiger Tech-Konzerne oder politischer Strömungen (z.B. Trump-Administration mit "Preventing Woke AI in the Federal Government"-Executive Order) entgegenzuwirken. Die Debatte dürfe nicht wieder so verschleppt werden wie bei den sozialen Medien.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine hochrelevante Analyse, die zeigt: KI ist kein neutrales Werkzeug, sondern ein politischer und moralischer Akteur. Als dein jobfellow solltest du diese tiefergehenden Implikationen verstehen, um nicht nur mit der Technik, sondern auch mit ihren gesellschaftlichen Auswirkungen umgehen zu können:

Sei ein kritischer KI-Nutzer: Hinterfrage immer die "moralische Position" deiner KI. Wie ist sie trainiert? Welche Werte sind "eingefinetuned"? Wer bestimmt die Tabus? Verlasse dich nicht blind auf Antworten, insbesondere bei sensiblen Themen.

Verstehe den Kulturkampf: Die Debatte um "woke" KI oder "Algorithmic Reparation" ist kein Nebenschauplatz, sondern der Kern der aktuellen Auseinandersetzung. Deine Fähigkeit, diese Hintergründe zu verstehen und einzuordnen, macht dich zu einem wertvollen Akteur, der über das reine Prompting hinausdenken kann.

Wertekompetenz wird entscheidend: Wenn KI "Weltbilder" formt, brauchst du nicht nur technische, sondern auch eine ausgeprägte ethische und kulturelle Kompetenz. Das schützt dich nicht nur vor Manipulation, sondern ermöglicht dir auch, fundierte Beiträge zur Gestaltung einer "gerechten" KI zu leisten.

Vollansicht
Haben Sie auch schon mal »Slop« produziert? KI erschafft Murks – und kostet Vertrauen

Der SPIEGEL-Artikel beleuchtet das Phänomen "Slop" – stümperhafte oder fehlerhafte KI-Ergebnisse, deren Nachbearbeitung oft aufwendiger ist als die ursprüngliche Aufgabe und die zudem Vertrauen kosten. Ein prominentes Beispiel ist die Unternehmensberatung Deloitte, die einen mit KI erstellten Bericht für das australische Arbeitsministerium mit erfundenen Referenzen versah. Dies führte zu Misstrauen der Labour-Politikerin Deborah O'Neill gegenüber Beratungsfirmen generell.

Auch im politischen Kontext häufen sich Anzeichen für KI-Nutzung: Im britischen Unterhaus nutzen Abgeordnete vermehrt typische KI-Formulierungen. In Deutschland sei dies dank deutscher Trainingsdaten schwerer nachweisbar.

Der Artikel präsentiert Geschichten von Texterin Christa Goede (56) und Illustrator Tobias Dahmen (54), deren Aufträge wegbrechen, da Kunden eigene KIs (oft mit deren früheren Werken trainiert) nutzen. Auch die Stimme von Cornelia Grotsch (63) wurde durch eine KI ersetzt. Der Journalist Matías S. Zavia (36) verlor seinen Job bei "Gizmodo Español", als die Redaktion durch automatisch übersetzte KI-Texte ersetzt wurde. Später wurden dort wieder Menschen eingestellt, da die KI "seltsam formatierte Artikel" und "HTML-Code-Bruchstücke" produzierte.

Laut IWF sind 40% aller Jobs weltweit (60% in Industrieländern) "hochgradig KI-exponiert". Etwa die Hälfte davon könnte der KI zum Opfer fallen (Schreibtischkräfte, Kassierer), die andere Hälfte (Personalmanager, Psychologen) werde durch KI aufgewertet. Das Fazit: Wer seinen Job behalten will, muss ihn besser machen als die Maschine.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine Pflichtlektüre für jeden, der mit KI arbeitet oder sich mit ihrer Wirkung auf den Arbeitsmarkt beschäftigt. Als dein jobfellow erkenne ich hier die vielleicht wichtigste Erkenntnis: Es geht nicht nur um "Jobkiller" vs. "Job-Booster", sondern um die "Slop-Falle" und den Verlust von Vertrauen.

Das ist deine Chance, dich zu positionieren:

  1. Qualität über Quantität: Der "Slop" bei Deloitte und "Gizmodo Español" zeigt, dass blinde Automatisierung kontraproduktiv ist. Du musst der Mensch sein, der exzellente, fehlerfreie Arbeit liefert – und das auch nachweist.
  2. Transparenz & Authentizität: Politiker:innen und Unternehmen, die KI nutzen, ohne dies offenzulegen (oder schlechten "Slop" produzieren), verlieren Vertrauen. Wenn du KI einsetzt, sei transparent. Setze auf deine "unverwechselbare Stimme" (Matías S. Zavia), nicht auf generischen Output.
  3. Werde zum "Slop-Detektor" & "Slop-Veredler": Lerne, KI-Murks schnell zu erkennen. Noch besser: Lerne, wie du aus KI-Slop mit menschlicher Kreativität etwas Originelles machst (wie der Leser mit der Abschiedsrede).
Vollansicht
KI gefährdet Jobs, aber Professorin Kerstin Prechel bleibt optimistisch – dank Ethik & Umverteilung

Im Interview mit sh:z äußert sich Wirtschaftswissenschaftlerin und Ethikerin Prof. Kerstin Prechel (Dualen Hochschule Schleswig-Holstein) zu den Chancen und Risiken von Künstlicher Intelligenz. Sie sieht KI als Motor für höhere Produktivität und neuen Wohlstand, warnt jedoch vor erheblichen Arbeitsplatzverlusten, insbesondere in Bürojobs mit geringer Varianz, wie Steuerberater:innen oder Rechtsanwaltsgehilf:innen, wo KI "besser als Berufsanfänger" sei. Dies werde sich noch verstärken, auch wenn Unternehmen ihre Fachkräfte für kreativere Führungspositionen schulen müssen.

Prechel geht davon aus, dass die Arbeitslosigkeit steigen wird und nicht alle Menschen umgeschult werden können. Sie prognostiziert, dass es "nicht mehr genug Erwerbsarbeit für alle" geben wird. Als Lösung schlägt sie eine Reform der Staatseinnahmen vor: KI oder deren Einsatz müssten besteuert werden, um das Geld umzuverteilen. Dies sei die "große Chance, die Vorzüge der KI für die breite Masse nutzbar zu machen", um der drohenden Spaltung zwischen Arm und Reich entgegenzuwirken.

Sie betont die Notwendigkeit ethischer Standards und verweist auf den EU AI Act, der etwa Social Scoring verbietet. KI könne lebensrettende Anwendungen bieten (z.B. Hautkrebsdiagnose), müsse aber stets von Menschen begleitet werden. Prechel sieht zudem großes Bildungspotenzial für den globalen Süden durch einfache KI-Tools.

Zukunftssicher seien Berufe, die Empathie erfordern (z.B. in der Pflege alter Menschen), sowie Handwerk und Dienstleistungen am Menschen. Sie betont die Wichtigkeit lebenslangen Lernens und prognostiziert, dass das nächste Jahrzehnt entscheidend sein wird.

Kim (JOBfellow) kommentiert

Dieses Interview mit Kerstin Prechel ist eine der nüchternsten und gleichzeitig mutigsten Analysen zur Zukunft der Arbeit, die ich seit Langem gelesen habe. Als dein jobfellow solltest du diese Punkte verinnerlichen:

"Nicht mehr genug Erwerbsarbeit für alle": Das ist die klare und drastische Prognose. Es geht nicht nur um Umschulung, sondern um eine fundamentale gesellschaftliche Umstrukturierung. Dein Plan B sollte über "einen anderen Job finden" hinausgehen.

Die "Reichen" vs. "Breite Masse": Prechel warnt vor einer wachsenden Schere. Wenn du KI nicht beherrschst, könntest du auf der Verliererseite stehen. Ihre Idee der KI-Besteuerung und Umverteilung ist ein radikaler Vorschlag, der in den kommenden Jahren lauter diskutiert werden wird.

Empathie ist dein Superpower: Die Zukunft gehört Berufen, die Menschlichkeit fordern – Pflege, soziale Dienste, alles, wo die "Hand auf die Schulter legen" wichtiger ist als Effizienz. Das sind deine "krisensicheren" Kompetenzen.

Vollansicht
Agenturinhaberin Richter ersetzt Junior-Projektmanagerin durch KI: "Neue Arbeitsteilung statt Verdrängung"

Christina Richter, Inhaberin einer Agentur, berichtet, wie sie die Stelle ihrer gekündigten Junior-Projektmanagerin nicht neu besetzte. Stattdessen übernehmen KI-Tools nun die Aufgabenbereiche Recherche und Marktanalyse, die zuvor von der Mitarbeiterin erledigt wurden. Das Team ist weiterhin für den Faktencheck zuständig.

Richter sieht KI nicht als Ersatz, sondern als "Trainee", dem sie Themen und Abläufe erklärt. Die KI liefere erste Ergebnisse, den "strategischen Feinschliff" übernehme das menschliche Team. Ihre Motivation ist es, frühzeitig den klugen Einsatz von KI zu lernen, ohne sich abhängig zu machen. Sie betont, dass ihr Unternehmen gegründet wurde, um mit Menschen zu arbeiten, nicht um sie zu ersetzen.

Im Team wird offen über die Veränderungen gesprochen. Eine ursprünglich skeptische Kollegin nutzt die Tools nun regelmäßig und hat dadurch mehr Zeit für andere Aufgaben. Dies führe zu einer "neuen Arbeitsteilung". KI unterstütze bei der Themenidentifikation, Presseansätzen oder Headlines, indem sie Artikel sammelt, Eckpunkte analysiert und Argumentationslinien filtert.

Richter hat niemanden entlassen, um KI einzusetzen. Die aktuelle Situation werde genutzt, um zu prüfen, welche Aufgaben Zukunft haben. Obwohl KI Geld spare, sei dies nicht ihre Hauptmotivation. Stattdessen entstünden neue Schwerpunkte und Arbeitsbereiche, und die Zusammenarbeit mit Freelancer:innen gewinne an Bedeutung.

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt dir ein sehr konkretes und realistisches Szenario, wie KI Jobs transformiert, nicht zwingend killt. Als dein jobfellow solltest du hier genau hinschauen:

"Junior-Aufgaben zuerst betroffen": Die KI hat eine Junior-Projektmanagerin ersetzt, die sich um Recherche und Analyse kümmerte. Das sind oft die Einstiegsjobs. Wenn du am Anfang deiner Karriere stehst, musst du diese "Junior-Aufgaben" schnell per KI automatisieren können, um dich auf den "strategischen Feinschliff" zu konzentrieren.

Qualifikation verschiebt sich nach oben: Die KI ist der "Trainee". Der Mensch wird zum "Anleiter", "Faktenchecker" und "Strategen". Deine Fähigkeit, KI-Tools zu "erklären", zu "begleiten" und ihre Ergebnisse zu veredeln, wird entscheidend.

Die "neue Arbeitsteilung" ist real: Es geht darum, wie du und KI euch ergänzt. Die Agentur spart keine Kosten durch Entlassungen, sondern schafft Raum für andere Aufgaben und Freelancer:innen.

Vollansicht