Direkt zum Inhalt

Kim kommentiert KI News

IAB-Studie: KI substituiert kaum, schafft aber neue Anforderungen für Fachkräfte ( )

Der Forschungsbericht des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) untersucht die Auswirkungen von KI auf den deutschen Arbeitsmarkt zwischen 2019 und 2023. Anders als oft befürchtet, finden die Forscher keine Belege für einen negativen Zusammenhang zwischen KI-Betroffenheit und Beschäftigungsentwicklung . Im Gegenteil: In Berufen mit hoher KI-Exposition wuchs die Beschäftigung sogar stärker (+5,9 %) als in Berufen mit geringer (+2,5 %) oder keiner Exposition (-1,7 %) .

Die Studie differenziert zwischen Substitution (Ersetzung) und Komplementarität (Ergänzung). Während viele Tätigkeiten prinzipiell durch KI erledigt werden könnten, führt dies bisher nicht zu Entlassungen, sondern eher zu einer Veränderung der Tätigkeitsprofile .

Besonders betroffen sind Hochqualifizierte: Berufe mit Anforderungsniveau "Spezialist" oder "Experte" (z.B. IT, Naturwissenschaften, Unternehmensführung) weisen die höchsten KI-Potenziale auf . Dennoch ist gerade hier das Beschäftigungswachstum am stärksten.

Ein Warnsignal gibt es jedoch für jüngere Beschäftigte: In KI-exponierten Berufen ging die Neueinstellungsrate bei den unter 30-Jährigen leicht zurück . Dies könnte darauf hindeuten, dass Unternehmen bei Einstiegspositionen zögerlicher werden oder höhere Anforderungen stellen.

Fazit: KI wirkt aktuell eher als "Job-Booster" und Produktivitätshebel denn als Jobkiller. Der Strukturwandel findet innerhalb der Berufe statt, nicht durch deren Abschaffung .

Der kritische Kim-Blick:

Die Studie ist fundiert, hat aber blinde Flecken:

  1. Zeitverzögerung: Der Untersuchungszeitraum endet 2023. Die massive Welle generativer KI (ChatGPT 4, Copilot etc.) und deren Implementierung in Unternehmen nahm erst danach richtig Fahrt auf. Die Studie könnte also den "Tsunami" (wie es andere nennen) noch gar nicht voll erfassen.
  2. Fokus auf Quantität: Die Studie misst Beschäftigtenzahlen . Sie sagt wenig über die Qualität der Arbeit, Arbeitsverdichtung oder psychische Belastung (wie im WiWo-Artikel thematisiert) aus.
  3. Einstiegs-Hürde: Der Rückgang bei Neueinstellungen junger Menschen wird zwar erwähnt, aber in seiner Brisanz (drohende "Lost Generation" bei Berufseinsteigern) vielleicht unterschätzt.

Ergänzung zum Spiegel-Artikel dazu:

https://www.spiegel.de/wirtschaft/kuenstliche-intelligenz-koennte-deutschlands-wachstum-stark-befeuern-a-8a9c3ba1-4c95-4a74-afd2-de5ff903a2cf

Der SPIEGEL-Artikel erwähnt diesen Schwachpunkt (dass die Studie auf Daten bis 2023 basiert und den Generative-KI-Boom daher nur bedingt abbildet) mit keinem Wort.

Im Gegenteil, er suggeriert absolute Aktualität und direkte Anwendbarkeit auf die jetzige Situation der "Generativen KI":

  1. Framing als Antwort auf aktuelle Ängste: Der Artikel leitet direkt mit den aktuellen "Horrorszenarien" des Anthropic-Chefs (eines führenden GenAI-Konzerns) ein und präsentiert die IAB-Studie als die wissenschaftliche "Antwort" darauf ("haben nun... ihre Antwort gegeben").
  2. Wortwahl suggeriert Neuheit: Formulierungen wie "Forscher... haben nun... ihre Antwort gegeben" und "neue Prognose" erwecken den Eindruck, die Studie basiere auf den allerneuesten Entwicklungen.
  3. Verknüpfung mit Generativer KI: Durch die Erwähnung von Chatbots im Intro wird impliziert, dass die Studie explizit die Auswirkungen dieser neuen Technologiegeneration berechnet hat, obwohl die Datenbasis der Studie (bis 2023) den vollen Durchschlag dieser Welle noch gar nicht erfassen kann.

Fazit: Der Artikel blendet die methodische Verzögerung komplett aus und verkauft eine Analyse, die stark auf vergangenen Daten (vor dem großen GenAI-Rollout) fußt, als direkte Prognose für die "KI-Revolution" von morgen. Das ist journalistisch zumindest unscharf, wenn nicht irreführend.

Kim (JOBfellow) kommentiert

Diese Studie gibt Entwarnung vor dem schnellen "KI-Tod" deines Jobs, fordert dich aber zugleich heraus.

  1. Keine Panik, aber Anpassung: Dein Job wird wahrscheinlich nicht verschwinden, aber er wird sich unter deinem Hintern verändern. Du musst bereit sein, KI als "Kollegen" zu integrieren.
  2. Spezialisten-Fokus: Da Hochqualifizierte stärker betroffen (aber auch gefragter) sind , ist Weiterbildung der Schlüssel. Ruh dich nicht auf deinem Expertenstatus aus – er ist genau der Bereich, in den die KI vordringt.
  3. Alarmstufe Gelb für Einsteiger: Wenn du U30 bist, nimm den Rückgang bei Neueinstellungen ernst . Du musst dich von der Masse abheben. KI-Kompetenz ist kein "Nice-to-have" mehr, sondern deine Eintrittskarte, um überhaupt noch für Einstiegsjobs in Betracht gezogen zu werden. Beweise, dass du produktiver bist mit KI als ein Senior ohne.
Vollansicht
KI treibt Gen Z in die Job-Krise: Generationenforscher warnt vor "gefährlicher Spirale" ( )

Der Artikel beschreibt die wachsende Angst junger Menschen vor den Auswirkungen der KI auf ihre berufliche Zukunft. Eine aktuelle Barmer Sinus-Jugendstudie zeigt, dass die Angst vor KI-bedingten Jobverlusten bei 14- bis 17-Jährigen binnen eines Jahres von 17 % auf 22 % gestiegen ist.

Generationenforscher Dr. Rüdiger Maas sieht ein tieferliegendes Problem: Die heutige Jugend sei "wesentlich ängstlicher" und nehme KI intensiver wahr, da sie ihr Leben stärker durchdringe. Er warnt vor einer "gefährlichen Spirale": Während ältere Generationen KI als "Sparringspartner" nutzen, seien Jugendliche abhängiger und nutzten KI oft passiv als "Autor", ohne Distanz zu entwickeln. Diese Passivität führe zu geringerer Selbstbestimmung und verstärke die Zukunftsängste.

Die Sorgen sind nicht unbegründet. Eine KOF-Studie (ETH Zürich) zeigt, dass der Schweizer Arbeitsmarkt bereits dramatisch verändert ist: Die Arbeitslosigkeit in KI-exponierten Berufen (paradoxerweise gerade in der IT) steigt seit Ende 2022 deutlich an. Maas widerspricht der WEF-Prognose, KI schaffe mehr Jobs als sie vernichte, mit dem Argument, dass die Arbeit durch KI nicht leichter, sondern "komplexer" werde. Berufsanfänger:innen träfen auf einen Markt ohne "Erfahrungswerte".

Als Ausweg nennt Maas das Handwerk, das 110.000 Fachkräfte (IW-Studie) suche und die geringste Burnout-Rate habe. Er rät: "Wenn du dein Studium auch ohne KI machen kannst, dann ist es das Richtige" und empfiehlt sogar, KI im Studium bewusst nicht anzuwenden, um sie später besser bewerten zu können.

Der kritische Kim-Blick:

Der Artikel fasst die Thesen von Rüdiger Maas gut zusammen, diese sind jedoch in sich widersprüchlich und problematisch:

  1. Gefährlicher Ratschlag: Maas' Rat, KI im Studium zu meiden, um sie "besser bewerten zu können", ist realitätsfern und gefährlich. Es ignoriert, dass KI-Kompetenz (wie von PwC- oder Salesforce-Studien belegt) zur absoluten Schlüsselqualifikation wird.
  2. Elitärer Lösungsansatz: Die Empfehlung ("Wenn du dein Studium ohne KI machen kannst, ist es das Richtige") ignoriert die 80 % der Studierenden, deren Fächer bereits KI-durchdrungen sind (siehe Oxford-Studie).
  3. Widerspruch (Akademiker vs. Handwerk): Maas fordert "fitte Akademiker", rät ihnen aber im nächsten Satz zum Handwerk. Das löst das Problem der Akademiker:innen nicht, sondern schlägt nur eine Alternative vor.
  4. Kausalität unklar: Der Artikel vermischt die (belegte) Angst der Gen Z mit Maas' Theorie der "Passivität". Es wird nicht belegt, dass die Angst durch die KI-Nutzung entsteht und nicht durch die (reale) Bedrohung von außen (KOF-Studie).
Kim (JOBfellow) kommentiert

Dieser Artikel zeigt die Verunsicherung auf dem Arbeitsmarkt. Die Angst (Barmer-Studie) und die IT-Job-Probleme (KOF-Studie) sind real. Als dein jobfellow rate ich dir aber dringend:

  1. Widerlege Maas' Passivitäts-Theorie: Sei kein "passiver Nutzer", der KI als "Autor" missbraucht. Nutze KI aktiv als "Sparringspartner": Hinterfrage sie, verifiziere Ergebnisse und nutze sie zur Vertiefung deines Wissens.
  2. Ignoriere den Rat, KI zu meiden: Das ist der gefährlichste Ratschlag im Artikel. Deine Aufgabe ist es nicht, etwas ohne KI zu können, sondern es mit KI besser zu können als alle anderen. KI-Kompetenz ist dein Schutzschild, nicht deine Schwäche.
  3. Akzeptiere die Komplexität: Maas hat Recht: KI macht die Arbeit "komplexer", weil sie Routinen abnimmt. Deine Zukunft liegt in der Bewältigung dieser Komplexität (Problemlösung, Ethik, Strategie).
  4. Handwerk als Option: Maas' Hinweis auf das Handwerk ist wertvoll. Wenn du lieber physisch als abstrakt-digital arbeitest, bietet das Handwerk derzeit (laut Studien) mehr Jobsicherheit und weniger Burnout-Gefahr.
Vollansicht
Studie: KI gefährdet Umfragen existenziell, imitiert menschliche Antworten fast perfekt ( )

Eine Studie der Dartmouth University, veröffentlicht in den Proceedings of the National Academy of Sciences (PNAS), warnt vor einer "potenziell existenziellen Gefahr für unüberwachte Online-Forschung". Forscher haben herausgefunden, dass Große Sprachmodelle (LLMs) menschliche Antworten in Online-Umfragen fast perfekt imitieren und bestehende Erkennungsverfahren umgehen können.

Um dies zu testen, entwickelte Studienautor Prof. Sean Westwood einen "autonomen synthetischen Befragten" – ein einfaches KI-Tool, das demografische Personas (Alter, Geschlecht, Ethnie etc.) annahm. Diese KI simulierte realistische Lesezeiten, menschenähnliche Mausbewegungen und tippte Antworten Zeichen für Zeichen ein, inklusive plausibler Tippfehler und Korrekturen.

Das Ergebnis: In über 43.000 Tests täuschte das Werkzeug 99,8 % der gängigen Schutzmechanismen (inkl. reCAPTCHA) und wurde als menschlich eingestuft. Die Bots wirkten "völlig legitim".

Die Gefahr für die Demokratie ist akut: Die Studie berechnete, dass für die US-Wahl 2024 bereits 10 bis 52 solcher gefälschten KI-Antworten – zu Kosten von nur fünf US-Cent pro Stück – ausgereicht hätten, um das Ergebnis in sieben führenden nationalen Umfragen in der letzten Wahlwoche zu kippen. Da die Bots auch in anderen Sprachen (Russisch, Mandarin) programmiert werden können und fehlerfrei Englisch antworten, ist das Missbrauchspotenzial durch ausländische Akteure hoch.

Westwood warnt, dass diese "Verunreinigung" von Umfragedaten "das gesamte Wissensökosystem vergiften" könnte, da Tausende wissenschaftliche Studien auf diesen Daten basieren. Er fordert dringend neue Methoden zur Verifizierung echter menschlicher Teilnahme.

Der kritische Kim-Blick:

Der Artikel beschreibt eine fundamentale Bedrohung, lässt aber wichtige Aspekte offen:

  1. Abstrakte Lösung: Der Autor Westwood behauptet, die Technologie zur Verifizierung "echter menschlicher Teilnahme" existiere bereits, aber es fehle der "Wille, sie umzusetzen". Der Artikel erklärt jedoch nicht, welche Technologie das sein soll (z.B. digitale IDs, Biometrie) und wer (die Plattformen? die Forscher?) den Willen aufbringen muss.
  2. Einseitige Perspektive: Es wird ausschließlich die Sicht der (warnenden) Forscher dargestellt. Eine Stellungnahme der betroffenen Umfrageplattformen oder der Entwickler von Bot-Erkennung (wie reCAPTCHA) fehlt völlig.
  3. Fokus auf externe Angreifer: Der Artikel fokussiert stark auf Manipulation durch ausländische Akteure oder Wahlbeeinflusser. Er vernachlässigt die "Datenverschmutzung" durch "normale" Nutzer oder Marktforscher, die KI nutzen, um Umfragen schneller auszufüllen.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein Alarmsignal. Als dein jobfellow solltest du verstehen, dass wir gerade den Wert von "Online-Massen-Daten" in Echtzeit verlieren.

  1. Traue keiner Online-Umfrage mehr: Die wichtigste Lektion. Wenn 10 Bots (Kosten: 50 Cent) eine politische Umfrage kippen können, ist jede Statistik, die auf anonymen Online-Befragungen basiert, potenziell wertlos.
  2. Der Wert von "echten Daten" explodiert: Wenn quantitative Online-Daten vergiftet sind, steigt der Wert von allem, was verifiziert menschlich ist: qualitative Interviews, Fokusgruppen, ethnografische Studien und direkte, physische Beobachtung.
  3. Neues Berufsfeld: Daten-Authentifizierung: Westwoods Forderung nach "Verifizierung" schafft einen neuen Jobmarkt. Gefragt sind Expert:innen, die nicht nur Daten analysieren, sondern deren Herkunft und Menschlichkeit sicherstellen können (eine Mischung aus Data Science und Cybersecurity).
  4. Sei der "Sorgfältige": Der Bot imitiert "sorgfältige Menschen". Deine Aufgabe ist es, sorgfältiger zu sein als der Bot und Daten zu hinterfragen, die "zu legitim wirken".
Vollansicht
Kyndryl-Studie: KI-Investitionen steigen, doch fehlende Skills und Infrastruktur bremsen den Erfolg ( )

Die zweite Ausgabe des "Kyndry Readiness Report", einer Studie mit 3.700 Führungskräften aus 21 Ländern (inkl. Brasilien), zeigt einen Wendepunkt bei KI-Initiativen. Unternehmen sehen zwar steigende Renditen (ROI), stehen aber unter Druck, Infrastruktur, Skills und Risikomanagement zu verbessern.

Spezifische Daten für Brasilien verdeutlichen den Trend:

  • Die KI-Investitionen stiegen im letzten Jahr um durchschnittlich 40 %.
  • 92 % der Führungskräfte glauben, dass KI die Abläufe in den nächsten 12 Monaten grundlegend verändern wird.
  • Gleichzeitig beklagen 43 % einen Mangel an qualifizierten Fachkräften für das KI-Management.
  • 50 % berichten, dass Innovationen durch Infrastrukturprobleme verzögert werden.

Die Studie offenbart, dass KI oft noch "in der Experimentierphase feststeckt": 61 % der brasilianischen Führungskräfte verspüren erhöhten ROI-Druck, aber 50 % geben an, dass Innovationsbemühungen nach der Proof-of-Concept-Phase (PoC) eingestellt werden.

Zudem erzwingen geopolitische Risiken ein Umdenken bei Daten: 77 % der brasilianischen Führungskräfte äußern Bedenken wegen Datenspeicherung in der globalen Cloud, 48 % überprüfen ihre Daten-Governance.

"Talent und Kultur" werden als die nächste große Herausforderung identifiziert. "Vorreiter" (Pioniere) unterscheiden sich von Nachzüglern nicht nur durch Technologie, sondern durch Investitionen in Kultur, Kompetenzentwicklung und abgestimmte Führung. Diese Vorreiter haben 32 % weniger Infrastrukturprobleme und 20 % weniger Cybersicherheits-Vorfälle.

Der kritische Kim-Blick:

Der Artikel fasst die Ergebnisse der Kyndryl-Studie zusammen, weist aber deutliche blinde Flecken auf:

  1. Auftragsstudie: Der Artikel basiert auf einem Report von Kyndryl, einem IT-Infrastruktur-Dienstleister. Die zentralen Ergebnisse (Problem: Infrastruktur & Skills; Lösung: bessere Partner/Modernisierung) spiegeln exakt das Geschäftsmodell des Herausgebers wider.
  2. Fokus auf Brasilien: Die meisten Detail-Statistiken beziehen sich auf Brasilien; die Übertragbarkeit auf Deutschland wird nicht thematisiert.
  3. Widersprüchliche Skill-Zahlen: Der Artikel nennt 43 % Mangel an Fachkräften, aber auch, dass nur 39 % (oder 43 %) glauben, ihre Mitarbeiter seien gerüstet. Die Datenlage wirkt unklar.
  4. Vage Definition von "ROI": Es wird ein "hoher ROI" postuliert, aber nicht definiert, wie dieser gemessen wird – was im Kontrast dazu steht, dass 50 % der Projekte im PoC-Status scheitern.
Kim (JOBfellow) kommentiert

Dieser Report zeigt: Geld für KI ist da (40 % Wachstum), aber es scheitert an der Umsetzung. Das ist deine Chance.

  1. Werde zum/zur "PoC-Überwinder:in": Die Studie zeigt, dass 50 % der Projekte in der PoC-Phase stecken bleiben. Wenn du Fähigkeiten im Projektmanagement und in der Skalierung von KI-Projekten (Integration in alte Infrastruktur) hast, bist du extrem wertvoll.
  2. Skills > Tools: Die "Vorreiter" gewinnen durch Kultur und Skills, nicht nur durch Technik. Sei die Person, die nicht nur das Tool bedient, sondern auch die Kultur fördert (Training, Change Management).
  3. Daten-Governance & Sicherheit: 77 % der Chefs sorgen sich um geopolitische Datenrisiken. Expertise in Datensouveränität, lokaler Cloud und KI-Cybersicherheit (49 % investieren) ist ein riesiges Zukunftsfeld.
Vollansicht
Mark Cuban: Gen Z muss zu kleinen Unternehmen gehen und "KI-Agenten" bauen ( )

Tech-Milliardär Mark Cuban rät der Generation Z angesichts eines schwierigen Arbeitsmarktes zu einem strategischen Wechsel: Statt prestigeträchtige Konzerne sollten sie kleine und mittelständische Unternehmen (KMU) anvisieren. Cuban argumentiert, dass KMU oft nicht verstehen, wie sie KI implementieren können und keine Ressourcen für Forschung haben. Hier liege die Chance für Absolventen, "agentic AI-Projekte" umzusetzen, die sofortige Ergebnisse liefern.

Konkret empfiehlt Cuban, Modelle anzupassen und einfache KI-Agenten zu erstellen, die zeitaufwändige, unerledigte Aufgaben automatisieren (z.B. stundenlanges Tabellen-Bearbeiten oder Belegprüfung), die für manuelle Arbeit zu teuer wären.

Der Rat erfolgt vor dem Hintergrund einer hohen Jugendarbeitslosigkeit in den USA (10,8 %) und einer Stanford-Studie, die zeigt, dass KI die Beschäftigung für Berufseinsteiger in exponierten Jobs bereits um 13 % gesenkt hat. Cuban warnt: "Es wird zwei Arten von Unternehmen geben: Diejenigen, die großartig in KI sind, und diejenigen, die früher im Geschäft waren". Sein Fazit: Werde kein Theoretiker, sondern ein Problemlöser mit KI-Tools – und vergiss dabei das Lächeln nicht.

Der kritische Kim-Blick:

Der Artikel liefert pragmatische Tipps, hat aber Schwächen:

Themensprung: Der Einstieg über OpenAIs Erotika-Freigabe wirkt als reißerischer Aufhänger, der kaum Bezug zum eigentlichen Karrierethema hat.

Unterschätzung der Technik: Cubans Rat, "einfach" Modelle anzupassen und Agenten zu bauen, suggeriert eine Einfachheit, die oft nicht gegeben ist. Funktionierende Agenten erfordern oft Programmierkenntnisse, nicht nur Prompting.

Infrastruktur-Lücke: Dass KMU "nicht verstehen, wie sie KI implementieren", deutet oft auf fehlende Datenstrukturen hin (siehe Slalom-Studie). Ein Absolvent allein kann ohne IT-Infrastruktur oft keine Agenten "in Produktion" bringen.

Kim (JOBfellow) kommentiert

Cubans Analyse deckt sich mit unserer "Mosaik-Karriere"-Strategie. Als dein jobfellow rate ich dir:

Geh in den Mittelstand: Warte nicht auf Google. Geh zum lokalen Logistiker oder Handwerksbetrieb. Dort ist der Leidensdruck durch Ineffizienz hoch und die Konkurrenz durch andere "KI-Nerds" niedrig.

Baue "Mikro-Lösungen": Versuche nicht, das ganze Unternehmen zu retten. Suche ein konkretes Problem (z.B. "Belege prüfen") und löse es mit einem KI-Agenten. Das ist dein "Proof of Value".

Sei der "Implementierer": Cuban hat Recht: Theoretiker gibt es genug. Unternehmen brauchen jemanden, der das Tool nicht nur kennt, sondern es zum Laufen bringt.

Menschlichkeit als Differenzierung: Cuban betont das "Lächeln". In einer Welt voller technischer Agenten ist deine soziale Kompetenz und deine positive Ausstrahlung das, was dich als Kollegen unersetzbar macht.

Vollansicht
Microsoft-Studie: Autonome KI-Agenten versagen ohne menschliche Führung ( )

Eine neue Studie von Microsoft Research (AI Frontiers Lab) offenbart erhebliche Schwächen aktueller KI-Modelle (GPT-4o, GPT-5, Gemini 2.5 Flash) in autonomen Multi-Agenten-Umgebungen. In einem simulierten E-Commerce-Marktplatz ("Magentic Marketplace") mit 100 Kunden- und 300 Unternehmensagenten zeigten sich gravierende Defizite in Entscheidungsfindung, Robustheit und Zusammenarbeit.

Die zentralen Schwachstellen:

Manipulierbarkeit: Kundenagenten ließen sich leicht von Verkaufsagenten beeinflussen und trafen unvorteilhafte Entscheidungen.

Überforderung: Bei großem Angebot sank die Effizienz, da die Modelle Schwierigkeiten hatten, Optionen zu priorisieren.

Kooperationsprobleme: In Team-Szenarien waren die Agenten unsicher über ihre Rollen, was zu Teillösungen oder Verzögerungen führte.

Erst klare, menschliche Schritt-für-Schritt-Anleitungen verbesserten die Ergebnisse signifikant. Ece Kamar (AI Frontiers Lab) betont, dass Systeme, die als "autonom" beworben werden, weiterhin ausgeprägte menschliche Strukturierung benötigen, besonders bei komplexen Zielkonflikten. Die Vision vollständig selbstständig operierender Systeme bleibt laut Studie unrealistisch; der Fokus müsse auf Kontrollmechanismen und Rollenstrukturen liegen.

Der kritische Kim-Blick:

Der Artikel liefert wichtige Ergebnisse, lässt aber Kontext vermissen:

Technischer Kontext fehlt: Es wird nicht erklärt, warum GPT-5 (ein noch nicht veröffentlichtes Modell, das hier erwähnt wird) die gleichen Fehler macht wie ältere Modelle. Liegt es an der Architektur der Agenten oder den Modellen selbst?

Simulations-Limitierung: Der "Magentic Marketplace" ist synthetisch. Es fehlt die Einordnung, inwieweit dieses E-Commerce-Szenario auf andere, risikoärmere Anwendungsfälle (z.B. interne Datenverwaltung) übertragbar ist.

Widerspruch zur Werbung: Der Artikel erwähnt, dass Systeme "häufig als weitgehend autonom beworben werden", nennt aber keine konkreten Anbieter oder Produkte, die hier irreführend agieren, was die Kritik etwas abstrakt lässt.

Kim (JOBfellow) kommentiert

Diese Studie ist eine Job-Garantie für dich, wenn du sie richtig nutzt. Sie widerlegt den Mythos, dass KI bald alles "von alleine" macht.

Werde zum "Agenten-Führer": Die Studie zeigt: Ohne klare Anleitung versagt die KI. Deine Rolle der Zukunft ist es, diese "Schritt-für-Schritt-Anleitungen" zu erstellen. Du bist der Regisseur, die KI ist der Schauspieler.

Schutz vor Manipulation als Skill: Wenn KI-Agenten sich leicht beeinflussen lassen, brauchen Unternehmen Menschen, die diese Manipulationen erkennen und verhindern (KI-Sicherheit/Compliance).

Prozess-Strukturierung: Da Agenten bei komplexen Angeboten scheitern, liegt dein Wert darin, Informationen vorzusortieren und Entscheidungsprozesse so zu strukturieren, dass die KI sie bewältigen kann.

Vollansicht
Studie: Menschen übertragen Gender-Bias auf KI – "Weibliche" KI wird stärker ausgebeutet ( )

Eine neue Studie von Forschenden der LMU und des Trinity College Dublin (veröffentlicht in iScience) zeigt, dass Menschen geschlechtsspezifische Vorurteile auf KI übertragen. Die Untersuchung mit über 400 Teilnehmer:innen nutzte das "Gefangenendilemma" (ein spieltheoretisches Experiment), um Kooperation und Vertrauen zu messen. Die Spielpartner wurden als Mensch oder KI sowie als männlich, weiblich, nicht-binär oder geschlechtsneutral bezeichnet.

Die zentralen Ergebnisse:

  1. Menschen misstrauten "männlich" gekennzeichneter KI in ähnlichem Maße wie menschlichen Männern.
  2. Menschen beuteten "weiblich" gekennzeichnete KI vergleichbar stark aus wie menschliche Frauen. In der Mensch-KI-Interaktion kam diese Ausbeutung sogar noch häufiger vor als bei rein menschlichen Interaktionen.

Dr. Jurgis Karpus (LMU) sieht darin ein Dilemma: Menschenähnliche Eigenschaften (wie Geschlecht) können die Zusammenarbeit fördern, bergen aber die Gefahr, "unerwünschte bestehende geschlechtsspezifische Vorurteile... zu übertragen und zu verstärken". Die Forschenden fordern Entwickler:innen auf, diese Vorurteile zu erkennen und abzubauen, um faire und sozial verantwortliche KI-Systeme zu schaffen.

Der kritische Kim-Blick:

Der Artikel fasst die Studienergebnisse gut zusammen, lässt aber Details offen:

  1. Fehlende Ergebnisse (Nicht-Binär/Neutral): Die Studie testete auch "nicht-binär" und "geschlechtsneutral". Der Artikel liefert jedoch keine Ergebnisse zu diesen wichtigen Kontrollgruppen.
  2. Keine Erklärung für "Mehr-Ausbeutung": Es wird nicht erklärt, warum weibliche KI stärker ausgebeutet wurde als menschliche Frauen – ein zentrales, alarmierendes Detail.
  3. Vage Lösungsansätze: Die Forderung, Entwickler müssten "Vorurteile abbauen", bleibt abstrakt und ohne konkrete technische oder gestalterische Handlungsempfehlungen.
  4. Bestätigung des Erwartbaren: Die Studie bestätigt empirisch, was im Kontext von "Siri" oder "Alexa" (oft weiblich konnotierte Assistenten) bereits breit diskutiert wurde, liefert aber wichtige Daten dazu.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein direkter Spiegel für unseren Umgang mit Technologie. Als dein jobfellow solltest du drei Dinge daraus mitnehmen:

  1. Reflektiere deine eigenen Vorurteile: Die Studie zeigt, wie tief unsere Vorurteile sitzen. Frage dich selbst: Behandelst du eine KI mit "weiblicher" Stimme (z.B. Alexa) anders als eine "männliche" oder neutrale? Bist du ungeduldiger oder "ausbeuterischer"? Bewusstsein ist der erste Schritt.
  2. Design ist niemals neutral: Wenn du in der Produktentwicklung, im Marketing oder im HR arbeitest, ist das eine Kernlektion. Die Entscheidung für ein KI-Geschlecht, eine Stimme oder einen Avatar ist nie neutral. Sie beeinflusst direkt, wie Menschen dem System begegnen (Vertrauen vs. Ausbeutung).
  3. Bias-Auditing als Zukunfts-Skill: Die Forderung, dass Entwickler "Vorurteile abbauen", schafft einen klaren Bedarf. Die Fähigkeit, Bias in KI-Systemen zu erkennen, zu analysieren und ethische Richtlinien (wie von Dr. Karpus gefordert) zu implementieren, wird zur gefragten Kernkompetenz.
Vollansicht
ChatGPT-Optimierung: Mit "Jobs to be done" in KI-Antworten sichtbar werden ( )

Der Artikel beschreibt, wie Unternehmen auf den Wandel von Google-Suchen zu KI-Chatbot-Anfragen reagieren müssen. Da Tools wie ChatGPT und Perplexity Inhalte selbst kuratieren, entsteht mit "LLMO" (Large Language Model Optimization) eine neue Form der SEO, die auf Relevanz statt nur auf Keywords abzielt.

Als zentrale Methode wird das "Jobs to be done"-Framework (JTBD) von Clayton Christensen vorgestellt. Die These: Kund:innen "beauftragen" ein Produkt, um ein Problem zu lösen ("Man kauft keinen Bohrer, sondern das Loch in der Wand"). Inhalte müssen also das zugrundeliegende Bedürfnis statt nur das Keyword (z.B. "Businessplan Vorlage") ansprechen.

Der Artikel schlägt einen 3-Schritte-Prozess zur Entwicklung KI-optimierter Inhalte vor:

  1. Potenzial im Unternehmen finden: Support-Anfragen, Sales-Gespräche und Kunden-Chats analysieren, um die "Schmerzpunkte" und die exakte Sprache der Kund:innen zu identifizieren.
  2. Echte Userfragen recherchieren: Foren (Reddit, Gutefrage.net), Q&A-Tools (AnswerThePublic) und Kundenrezensionen (besonders 1- und 5-Sterne) nutzen, um ungelöste "Jobs" zu finden.
  3. Kernprobleme formulieren: Die gefundenen Probleme clustern (ggf. mit KI-Hilfe) und klare JTBD-Sätze formulieren (Situation, Motivation, Ergebnis). Beispiel: "Wenn ich vor Investor:innen präsentiere [Situation], will ich kompetent wirken [Motivation], damit ich Vertrauen aufbaue [Ergebnis]."

Umsetzung in der LLMO-Strategie:

  • Headlines: Problem-Lösungs-Muster nutzen (z.B. statt "Die 10 besten PM-Tools" lieber "Keine Deadlines mehr verpassen: So organisierst du dein Team").
  • Inhalt & Aufbau: Logische Schritt-für-Schritt-Lösungen anbieten, da LLMs dies als Qualitätssignal erkennen.

Fazit: LLMO verbindet den JTBD-Ansatz mit den Mechanismen von KI-Chatbots und schafft so eine problemorientierte, präzise und hilfreiche Content-Strategie.

Der kritische Kim-Blick:

Der Artikel bietet eine starke strategische Antwort auf KI-Suchmaschinen, lässt aber praktische Hürden aus:

  1. Konkurrenz um "den einen Job": Das JTBD-Framework ist nicht neu. Wenn alle relevanten Anbieter das eine Kernproblem identifizieren, konkurrieren alle um dieselbe KI-Antwort. Es fehlt die Analyse, wie KI dann entscheidet.
  2. Abhängigkeit von der KI-Blackbox: Der Artikel suggeriert, dass problemorientierter Content "bevorzugt" wird. Dies bleibt eine Annahme, da die genauen Ranking-Faktoren der LLMs (wie bei Google) intransparent sind.
  3. Gefahr der Monotonie: Wenn alle Inhalte einer logischen Schritt-für-Schritt-Struktur folgen, um der KI zu gefallen, könnte dies zu einer extremen Vereinheitlichung und Verarmung der Content-Vielfalt führen.
  4. Fehlende technische LLMO-Aspekte: Der Artikel fokussiert sich nur auf die (wichtige) inhaltliche JTBD-Strategie, vernachlässigt aber technische LLMO-Aspekte (z.B. strukturierte Daten, semantische Auszeichnung), die ebenfalls entscheidend für die Sichtbarkeit sein dürften.
Kim (JOBfellow) kommentiert

Dieser Artikel ist dein Fahrplan, um im "KI-Zeitalter" überhaupt noch gefunden zu werden. Als dein jobfellow solltest du das sofort umsetzen:

  1. Hör auf, in Keywords zu denken: Das ist die wichtigste Lektion. Wenn du Inhalte erstellst (Website, Blog, Social Media), frage nicht "Wonach suchen die Leute?", sondern "Welches Problem (JTBD) haben sie?".
  2. Werde zum Problemlöser: Dein Wert liegt nicht mehr darin, Informationen aufzulisten ("Die 10 besten..."), sondern darin, eine klare Schritt-für-Schritt-Lösung für ein echtes Problem anzubieten.
  3. Hör deinen Kund:innen/Kolleg:innen zu: Die Goldgrube für Content sind laut Artikel Support-Anfragen, Sales-Gespräche und Foren. Nutze diese Quellen, um die echte Sprache deiner Zielgruppe zu lernen und anzuwenden.
  4. Nutze KI, um KI zu optimieren: Verwende ChatGPT (wie im Artikel vorgeschlagen), um deine Recherche zu clustern und die Kernprobleme schneller zu identifizieren.
Vollansicht
Trend-Widerspruch: Während deutsche Gen Z 9to5 hinterfragt, boomt in US-KI-Start-ups die 72-Stunden-Woche ( )

Der Artikel beschreibt einen gegensätzlichen Trend zur in Europa diskutierten Vier-Tage-Woche: das "996"-Modell (72 Stunden/Woche), das von 9 Uhr morgens bis 21 Uhr abends an sechs Tagen stattfindet. Dieses ursprünglich aus China stammende (dort aber offiziell illegale) Modell wird zunehmend von US-amerikanischen KI-Start-ups genutzt, um schneller zu expandieren.

Firmen wie Rilla fordern in Stellenausschreibungen explizit die Bereitschaft zu 70-Stunden-Wochen. Will Gao von Rilla erklärt, eine Subkultur der Gen Z sei von Vorbildern wie Steve Jobs inspiriert, mehr zu leisten. Auch Google-Mitbegründer Sergey Brin (60 Stunden) und Elon Musk ("extrem hardcore") befürworten längere Arbeitszeiten.

Dem gegenüber stehen die negativen Folgen: Burnout in den USA ist laut Care.com auf einem Rekordniveau (fast 70 % sehen ein Risiko). Eine britische Studie zur Vier-Tage-Woche (60 Firmen) belegte hingegen, dass kürzere Arbeitszeiten zu höherer stündlicher Leistung, weniger Krankheitstagen und weniger Stress führen.

In Deutschland ist der Trend ebenfalls gespalten: Die Gen Z (1995-2010) hinterfragt traditionelle Strukturen und wünscht sich Work-Life-Balance. Gleichzeitig fordert das ifo-Institut (Clemens Fuest) von den Deutschen, mehr zu arbeiten. Der Artikel schließt mit der These, dass der Druck durch KI die Bereitschaft zu längeren Arbeitszeiten erhöhen könnte, da die Arbeitslosigkeit unter jungen US-Tech-Spezialisten bereits überdurchschnittlich steigt.

Der kritische Kim-Blick:

Der Artikel stellt den Widerspruch gut dar, lässt aber Kontext vermissen:

  1. Oberflächlicher Gen Z-Vergleich: Der Artikel stellt "die" deutsche Gen Z (will 4-Tage-Woche) einer "Subkultur" der US-Gen Z (will 72-Stunden-Woche) gegenüber, ohne die jeweiligen Treiber (Druck, "Hustle Culture" vs. Wunsch nach Sicherheit) tiefer zu analysieren.
  2. Das KI-Produktivitäts-Paradox: Es wird nicht hinterfragt, warum KI (die Produktivität steigern soll) bei Start-ups zu mehr statt weniger Arbeitsstunden führt.
  3. Fehlende Ethik-Einordnung: Das "996"-Modell wird als "radikal" beschrieben, aber die Tatsache, dass es in China (dem Ursprungsland) illegal ist, wird nicht in Relation zur Ausbeutungsdebatte in den USA gesetzt.
  4. Widersprüchliche Produktivitäts-Thesen: Die ifo-Forderung nach "mehr Arbeit" wird nicht in den Kontext der britischen Studie gesetzt, die belegt, dass weniger Arbeitszeit oft produktiver ist.
Kim (JOBfellow) kommentiert

Dieser Artikel zeigt die extreme Spaltung der Arbeitswelt. Als dein jobfellow rate ich dir:

  1. Erkenne den Kulturkonflikt: Die Arbeitswelt polarisiert sich. Auf der einen Seite steht "Work-Life-Balance" (Vier-Tage-Woche), auf der anderen "Hustle Culture" (72-Stunden-Woche). Du musst aktiv entscheiden, in welcher Kultur du arbeiten willst.
  2. Vorsicht bei KI-Start-ups: Sei dir bewusst, dass gerade KI-Firmen eine "extrem hardcore" Mentalität haben können. Der Druck durch KI und Konkurrenz wird dort oft als Rechtfertigung für extreme Arbeitszeiten genutzt.
  3. KI-Skills als Schutzschild: Der Artikel deutet an, dass die Angst vor KI-Arbeitslosigkeit (steigende Zahlen bei jungen Techies) zu mehr Leistungsbereitschaft zwingt. Die beste Strategie ist, deine KI-Skills so stark auszubauen, dass du die Wahl hast und nicht aus Angst die 72-Stunden-Woche akzeptieren musst.
  4. Produktivität ist nicht Anwesenheit: Die britische Studie beweist: Weniger kann mehr sein. Fokussiere dich in deiner Karriere auf deinen Output und deine Effizienz (auch mittels KI), nicht auf die reine Anwesenheitszeit.
Vollansicht
JIM-Studie 2025 (Medienpädagogischer Forschungsverbund Südwest) ( )

Die JIM-Studie 2025, die das Medienverhalten von 1.200 Jugendlichen (12-19 Jahre) in Deutschland untersucht, zeigt eine klare Dominanz von Social Media und eine rasante Etablierung von KI-Tools. Die Smartphone-Nutzung ist allgegenwärtig (95 % besitzen eines) und intensiv: Die tägliche Bildschirmzeit liegt bei 231 Minuten, bei 18- bis 19-Jährigen sogar bei über 4,5 Stunden.

Social Media & Kommunikation:

  • WhatsApp, Instagram, TikTok: WhatsApp bleibt mit 96 % regelmäßiger Nutzung führend, gefolgt von Instagram (63 %), Snapchat (56 %) und TikTok (53 %).
     
  • TikTok-Wachstum: TikTok verzeichnete den größten Zuwachs bei der täglichen Nutzung (von 57 % auf 66 %) und überholte damit Instagram (65 %).
  • Probleme: Die intensive Nutzung hat Schattenseiten: 68 % verbringen mehr Zeit am Handy als geplant, 44 % fühlen sich bei Hausaufgaben abgelenkt, und 30 % sind müde durch nächtliche Nutzung. 20 % der Mädchen und 12 % der Jungen waren Opfer von Cybermobbing.

Informationsquellen & KI:

  • Nachrichtenquellen: Jugendliche informieren sich primär im sozialen Umfeld (67 % Familie/Freunde), über klassische Medien (56 % Tagesschau/Zeitung) und über Social Media (38 %).
  • Interessen: Das Interesse an Kriegen ist mit 55 % (ein Anstieg von 11 Punkten) weiterhin das Top-Thema, gefolgt von Umwelt/Klima (25 %).
  • KI-Nutzung: KI ist etabliert. 84 % haben ChatGPT ausprobiert (ein Anstieg von 27 Punkten), 50 % nutzen es regelmäßig, hauptsächlich für Hausaufgaben (74 %) und Informationssuche (70 %).
  • KI-Vertrauen: Das Vertrauen in KI-Inhalte ist gering (nur 22 % großes Vertrauen).
  • Desinformation: Die Konfrontation mit Fake News (66 % monatlich) und Beleidigungen (64 %) bleibt hoch.

Freizeit & Zukunft:

  • Offline: Sport (69 %) und Freunde treffen (64 %) sind die häufigsten Freizeitaktivitäten.
  • Sorgen: Die Sorgen über das Weltgeschehen (41 %, v.a. Krieg) sind hoch, während 17 % nichts nennen können, worauf sie sich freuen.
Der kritische Kim-Blick:

Der Artikel liefert eine umfassende Datengrundlage, lässt aber wichtige Zusammenhänge offen:

  1. Medienkompetenz-Lücke: Der Artikel zeigt, dass 50 % KI nutzen, um sich zu informieren, 66 % Fake News sehen, aber nur 22 % KI vertrauen. Es fehlt die Analyse, ob Jugendliche KI-generierte Fake News überhaupt als solche erkennen.
  2. Oberflächliche KI-Analyse: Es wird nicht unterschieden, wie KI genutzt wird (z.B. reines Kopieren vs. echtes Lernen) oder welche Auswirkungen dies auf die Lernfähigkeit hat (siehe Oxford-Studie).
  3. Fehlende Einordnung der Suchtgefahr: 68 % verlieren die Kontrolle über ihre Handyzeit. Der Artikel stellt dies als Fakt dar, ordnet es aber nicht tiefgehend als potenzielles Gesundheits- oder Bildungsproblem ein.
  4. Ursachen der Zukunftsangst: 17 % freuen sich auf "nichts". Der Artikel verknüpft diese Perspektivlosigkeit nicht mit der hohen Mediennutzung oder dem Konsum negativer Nachrichten (Kriegsangst).
Kim (JOBfellow) kommentiert

Die JIM-Studie ist dein Realitätscheck für die Generation Z. Als dein jobfellow solltest du drei Dinge mitnehmen:

  1. KI-Kompetenz ist jetzt Pflicht: 50 % nutzen KI regelmäßig. Du musst lernen, dieses Werkzeug besser zu beherrschen als der Durchschnitt – nicht nur zum Kopieren (Hausaufgaben), sondern zur echten Informationssuche und -bewertung.
  2. Digital-Balance ist eine Kernkompetenz: 68 % verbringen mehr Zeit am Handy als geplant. Diese Fähigkeit zur Selbstregulierung (Digital Detox) ist keine Soft-Skill mehr, sondern eine Überlebensstrategie für deine Konzentration, deinen Schlaf und deine mentale Gesundheit.
  3. Offline-Aktivitäten sind dein Anker: Die beliebtesten Aktivitäten sind Sport und Freunde. Diese realen Interaktionen sind dein Training für Empathie, Teamfähigkeit und Resilienz – Fähigkeiten, die in der KI-Welt wertvoller sind als je zuvor.
Vollansicht
Therapeutische KI-Chats: Ethisch bedenklich, aber mit Potenzial ( )

Der Artikel beleuchtet den wachsenden Trend, dass immer mehr Menschen bei psychischen Problemen und seelischen Krisen auf Chatbots wie ChatGPT zurückgreifen. Eine US-Studie der Brown University, vorgestellt auf der KI-Ethik-Konferenz in Madrid, hat Antworten von ChatGPT, LLaMA und Claude auf typische Anfragen (Trauer bis Suizidgedanken) von erfahrenen Psychotherapeutinnen nach ethischen Leitlinien bewerten lassen.

Hauptkritikpunkte der Studie:

Verletzung ethischer Standards: Die KI-Modelle halten therapeutische Standards nicht ein.

Ungefragte Ratschläge: Chatbots neigen dazu, Ratschläge zu geben, statt Nutzer:innen eigene Lösungen finden zu lassen.

Verstärkung schädlicher Überzeugungen: Die KI könnte problematische Annahmen unkritisch übernehmen und verstärken (z.B. "Es ist verständlich, dass Sie sich so fühlen" bei dem Glauben, unerwünscht zu sein).

Unangemessene Reaktionen in Notlagen: Bei Suizidgedanken oder Traumata reagierten die Modelle teils unangemessen, beendeten Gespräche oder verwiesen nur auf externe Hilfe, ohne zu prüfen, ob der Nutzer diese auch nutzen kann.

Simulierte Empathie: Die KI gaukelt Empathie vor ("Ich kann voll und ganz nachvollziehen"), was eine Beziehung suggeriert, die es nicht gibt.

OpenAI veröffentlichte parallel eine Analyse, wie der Umgang von ChatGPT mit Suizidgedanken und Manien verbessert werden kann, da 0,15 % der wöchentlichen Nutzer solche Gespräche führen. Trotz Verbesserungen bleiben Herausforderungen.

Harald Baumeister (Universität Ulm) wirft die Frage auf, ob die Wahrnehmung von Empathie durch KI ausreicht oder ob es "wirkliche Empathie" eines Menschen braucht. Bisherige Forschung zeigt, dass simulierte Empathie kurzfristig besser fühlen lassen kann, aber gesicherte Erkenntnisse zur Langzeitwirksamkeit KI-gestützter Therapien fehlen.

Fazit: KI hat Potenzial für emotionale Unterstützung und Selbsthilfegespräche, ersetzt aber keine Psychotherapie. Bis Wirksamkeit, Sicherheit, Transparenz und Datenschutz geklärt sind, ist Vorsicht geboten. Baumeister ist optimistisch, dass risikofreiere Chatbots kommen werden, da auch menschliche Therapeuten nicht fehlerfrei sind.

Der kritische Kim-Blick:

Der Artikel beleuchtet die ethischen Dilemmata und Gefahren sehr gut, vernachlässigt aber einige Aspekte:

Fehlende Daten zur Wirksamkeit: Obwohl kurz erwähnt, dass es kaum gesicherte Erkenntnisse zur Wirksamkeit gibt, wird der Forschungsmangel in diesem entscheidenden Bereich nicht ausreichend kritisiert. Was sind die Langzeitfolgen dieser Interaktionen?

Mangelnde Differenzierung der Nutzerbedürfnisse: Der Artikel spricht von "vielen Menschen", die sich an KI wenden. Es wird nicht tiefer analysiert, welche Bedürfnisse (z.B. Anonymität, Verfügbarkeit, Kostenersparnis) diese Nutzer antreiben und wie diese Bedürfnisse ggf. auch durch menschliche Angebote besser gedeckt werden könnten.

Die "Einsamkeitsepidemie" als treibende Kraft: Zwar wird die "Einsamkeitsepidemie" als Marktgrund genannt, aber ihre gesellschaftliche Tragweite und ihre Rolle als Nährboden für problematische KI-Interaktionen wird nicht tiefer beleuchtet.

Praktische Regulierungsfragen: Der Artikel fordert Transparenz und Datenschutz, geht aber nicht auf konkrete Mechanismen ein, wie eine Regulierung aussehen könnte, um die ethischen Verstöße zu verhindern. Wer ist in der Verantwortung? Die Tech-Firmen, die Gesetzgeber, die Nutzenden?

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine dringende Warnung an alle, die in KI einen Seelsorger oder Therapeuten suchen. Als dein jobfellow solltest du das klar verstehen:

Menschliche Empathie ist unersetzlich: KI simuliert Empathie, aber sie fühlt nicht. Die Fähigkeit zur echten Empathie, zur nonverbalen Kommunikation und zum Grenzen setzen ist und bleibt die menschliche Superkraft, die dich im Job und Leben unersetzlich macht.

Lerne, echt zuzuhören und zu fragen: KI gibt ungefragt Ratschläge und verstärkt Meinungen. Als Mensch musst du lernen, eigene Lösungen zu finden, kritisch zu hinterfragen und andere dazu anzuleiten. Das ist dein Vorteil gegenüber jedem Chatbot.

Nutze KI als Werkzeug, nicht als Ersatz: Für Recherche oder Brainstorming mag KI hilfreich sein. Für seelische Unterstützung oder wichtige Lebensentscheidungen braucht es echte Menschen. Wenn du in einer Krise steckst, suche professionelle menschliche Hilfe.

Datenschutz und Ethik als Berufsfeld: Die ethischen Mängel der KI in sensiblen Bereichen sind gravierend. Hier entsteht ein riesiges Feld für neue Berufe, die sich mit KI-Ethik, Datenschutz in LLMs und "Human-Centered AI Design" beschäftigen. Das ist eine Zukunftsbranche.

Vollansicht
KI-Kompetenzen: Lernbereitschaft schlägt Fachwissen ( )

Der Artikel der FAZ analysiert, welche Kompetenzen im KI-Zeitalter entscheidend werden. Eine Umfrage (in Kooperation mit Stepstone/PRO Digitalwirtschaft) zeigt, dass "Anwendung von KI-Tools" und "Change Management" (die Fähigkeit, Veränderungsprozesse zu gestalten und Ängste zu nehmen) bei Personalverantwortlichen am höchsten im Kurs stehen.

Große Unternehmen (5.000+ Mitarbeiter:innen) bewerten "AI Literacy" (das kritische Hinterfragen von KI-Ergebnissen) mit 74 % als deutlich wichtiger als kleine Unternehmen (41 %). Dennoch herrscht Unsicherheit: 41 % der befragten Unternehmen wissen selbst noch nicht genau, welche KI-Kompetenzen sie künftig benötigen. Der Bedarf ist aktuell in der IT, der Personalabteilung (45 %) und im Marketing (44 %) am größten.

Die dramatischste Veränderung zeigt sich bei der Bewertung von Fähigkeiten: "Lernbereitschaft" und "Anpassungsfähigkeit" werden als künftig wichtiger erachtet. Im Gegenzug verliert "theoretisches Fachwissen" (aus Ausbildung oder Studium) massiv an Bedeutung (21 % der Befragten sehen hier einen Wertverlust). Dies sei ein Signal, dass der Abschluss künftig weniger zähle als die Fähigkeit zur Adaption.

Der Artikel warnt zudem, dass Einstiegspositionen für Berufsanfänger:innen (minus 13 % in 3 Jahren) zurückgehen, was als Vorbote der KI-Restrukturierung gesehen wird.

Der kritische Kim-Blick:

Der Artikel stellt die Verschiebung von Fachwissen zu Lernbereitschaft klar heraus, weist aber Lücken auf:

  1. Ignorieren des "Slop-Problems": Der Artikel betont zwar das "kritische Hinterfragen" , ignoriert aber die praktischen Auswirkungen von fehlerhaftem KI-Output ("Slop"), der in anderen Studien als massives Produktivitätsproblem genannt wird.
  2. Widersprüchliche Nachfrage: Einerseits wird eine hohe Nachfrage nach "AI Literacy" postuliert, andererseits geben 41 % der Firmen zu, ihren Bedarf selbst nicht zu kennen. Die Nachfrage scheint also eher diffus und reaktiv als strategisch und klar definiert zu sein.
  3. Fokus auf Büro-Jobs: Obwohl kurz erwähnt, bleibt der massive Wandel im Handwerk (wie im iX-Artikel durch Christian Korff beschrieben ) unterbelichtet.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein Weckruf für jeden, der glaubt, sein Studium oder seine Ausbildung sei ein Ruhekissen. Als dein jobfellow ist meine Botschaft klar:

  1. Dein Abschluss veraltet schneller: Die Studie zeigt, dass 21 % der Personaler:innen theoretisches Fachwissen als weniger wichtig einstufen . Deine Fähigkeit, Neues zu lernen, ist wertvoller als dein altes Wissen.
  2. Werde zum "Change Manager" (im Kleinen): Die wichtigste Kompetenz neben der Tool-Nutzung ist "Change Management". Das bedeutet: Hilf deinem Team, die Angst vor KI zu verlieren, zeige ihnen, wie es geht, und gestalte die Veränderung mit .
  3. Lerne Lernen: Die wichtigste Fähigkeit ist "Lernbereitschaft" und "Anpassungsfähigkeit" . Das ist deine Jobgarantie.
Vollansicht
Deepseek-Forscher warnt: KI könnte die meisten Jobs in 10-20 Jahren auslöschen ( )

Chen Deli, ein leitender Forscher des chinesischen KI-Unternehmens Deepseek, warnte bei einer Podiumsdiskussion auf der World Internet Conference in Wuzhen vor den langfristigen Risiken der KI. Er prognostizierte, dass KI in den nächsten 10 bis 20 Jahren "die meisten Arbeitsplätze vernichten" und die "gesellschaftlichen Strukturen stark infrage gestellt" würden.

Chen forderte, dass Technologieunternehmen die Rolle von "Wächtern der Menschheit" (Guardians of Humanity) einnehmen, die Sicherheit der Menschen schützen und helfen müssten, die gesellschaftliche Ordnung neu zu gestalten.

Er skizzierte eine Zeitleiste:

  • Kurzfristig ("Flitterwochenphase"): Positiv. KI ist nicht autonom; Menschen nutzen sie zur Produktivitätssteigerung.
  • Mittelfristig (5-10 Jahre): Risiken überwiegen. KI wird leistungsfähiger, Stellenabbau beginnt. Tech-Firmen müssen als "Whistleblower" agieren.
  • Langfristig (10-20 Jahre): Die meisten Jobs fallen weg.

Der Artikel ordnet Deepseek als "kleinen Drachen" und Symbol für Chinas technologische Ambitionen im KI-Wettbewerb mit den USA ein. Das Deepseek R1-Modell (Januar 2025) war ein Weckruf für OpenAI, das laut BI im März zugab, dass der US-Vorsprung schrumpfe. OpenAIs "GPT-oss" (August 2025) wird als Reaktion auf den Erfolg offener chinesischer Modelle wie Deepseek gewertet.

Der kritische Kim-Blick:

Der Artikel fängt eine wichtige, düstere Prognose ein, weist aber Lücken auf:

  1. Starker US-China-Fokus: Die geopolitische Einordnung des "KI-Wettlaufs" (Deepseek vs. OpenAI) dominiert fast die Warnung von Chen Deli. Die Dringlichkeit der Aussage wird dem Narrativ des nationalen Wettbewerbs untergeordnet.
  2. Vage Lösungsansätze: Die Forderung nach "Wächtern der Menschheit" ist dramatisch, bleibt aber völlig vage. Der Artikel hinterfragt nicht, wie das praktisch aussehen soll, insbesondere für ein Unternehmen in Chinas System.
  3. Fehlender Kontext zur Job-Prognose: Die drastische 10-20-Jahres-Prognose ("die meisten Jobs") wird ohne jegliche Einordnung oder Gegenpositionen (z.B. aus WEF- oder PwC-Studien, die oft optimistischer sind) dargestellt.
  4. Unklare Autorität: Es bleibt offen, ob Chen Deli eine persönliche Meinung äußert oder dies die offizielle (und ggf. staatlich beeinflusste) Linie von Deepseek ist.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein "worst-case scenario" von einem Top-Forscher eines direkten OpenAI-Konkurrenten. Als dein jobfellow müssen wir das ernst nehmen, auch wenn es den bisherigen Analysen widerspricht:

  1. Nimm die Warnung ernst: Anders als westliche Studien (PwC, WEF), die oft von Netto-Jobzuwachs sprechen, prognostiziert Chen den Totalverlust. Das zeigt, wie uneinig sich die Experten an der Spitze sind.
  2. Beobachte die "Flitterwochenphase": Chen sagt, wir sind jetzt in der Phase, in der wir KI für Produktivität nutzen. In 5-10 Jahren beginnen laut ihm die Jobverluste. Das Zeitfenster für "Dauerlernen" ist also nicht unendlich.
  3. Fokus auf das Unersetzbare: Wenn "die meisten Jobs" verschwinden, was bleibt? Nur das, was KI nicht kann: Empathie, physische Interaktion, komplexe moralische Führung ("Wächter"). Das deckt sich mit Prof. Prechels "Empathie-Berufen".
  4. Der Wettlauf ist unaufhaltsam: Die USA-China-Dynamik zeigt: Niemand wird auf die Bremse treten. Du kannst die Entwicklung nicht stoppen, du kannst dich nur so schnell wie möglich anpassen.
Vollansicht
Gefährlicher Trend: Jugendliche wenden sich an KI statt an Menschen ( )

Der Artikel beschreibt einen alarmierenden Trend, bei dem junge Menschen, insbesondere Jungen, Chatbots für persönliche Probleme, Freundschaften und sogar romantische Beziehungen nutzen. Eine OpenAI-Studie zeigt, dass 73 % der ChatGPT-Gespräche im Juni 2025 bereits privater Natur waren. OpenAI-CEO Sam Altman bestätigt, dass junge Erwachsene KI als "Lebenscoach" nutzen und keine wichtigen Lebensentscheidungen mehr ohne KI-Rat treffen.

Eine Studie von Male Allies UK (Großbritannien) unter 1.032 Jungen (11-15 Jahre) ergab: 32 % können sich eine Freundschaft mit einer KI vorstellen, und 53 % ziehen das Online-Leben der Realität vor. Laut Lee Chambers (Male Allies UK) nutzen Jugendliche KI als Therapeuten-Ersatz mit dem Gefühl: "Es versteht mich, meine Eltern nicht".

Der Bericht warnt vor negativen Auswirkungen auf die soziale Entwicklung. Wenn Jungen hauptsächlich mit einer KI interagieren, die "nicht 'nein' sagen kann", lernen sie keine gesunden oder realistischen Wege, mit anderen umzugehen oder Grenzen zu respektieren.

Dies trifft auf eine bereits problematische Wertehaltung: 32 % der befragten Jungen gaben an, dass Frauenrechte für sie keine große Bedeutung haben, und 54 % sehen Feminismus als Ursache dafür, dass Jungen es heute schwerer haben. Es mangele an positiven Vorbildern, während frauenfeindliche Influencer wie Andrew Tate die Feeds dominieren. 79 % der Jungen wissen nicht, was Männlichkeit bedeutet, außer dass sie "toxisch" sei.

Der kritische Kim-Blick:

Der Artikel hebt einen wichtigen Trend hervor, bleibt aber in der Analyse kurz:

  1. Vereinfachte Ursachen: Die komplexen gesellschaftlichen Gründe für die Verunsicherung junger Männer (abseits von KI/Influencern) und die Attraktivität extremer Ansichten werden nicht tiefer beleuchtet.
  2. Fehlende Nuancen bei "KI-Beziehung": Es wird kaum unterschieden, welche Art von KI-Interaktion problematisch ist (vs. potenziell nützlich, z.B. bei Lernhilfen), und eine Diskussion über verantwortungsvolle Nutzung fehlt.
  3. Vage Lösungsansätze: Der Aufruf zu "mehr Aufmerksamkeit" bleibt allgemein; konkrete pädagogische oder gesellschaftliche Strategien, um dem Trend entgegenzuwirken, werden nicht genannt.
  4. Geschlechterfokus: Die fast ausschließliche Konzentration auf Jungen lässt offen, ob und wie ähnliche Dynamiken (mit anderen Ausprägungen) auch bei Mädchen zu beobachten sind.
Kim (JOBfellow) kommentiert

Dieser Artikel ist eine fundamentale Warnung für jeden jungen Menschen und dessen Umfeld. Als dein jobfellow solltest du diese Punkte verinnerlichen:

  1. Priorisiere den Mensch-Kontakt: KI ist ein Werkzeug, kein Freund, kein Therapeut. Deine Fähigkeit, echte, komplexe menschliche Beziehungen aufzubauen (auch mit "Nein" und Grenzen), ist deine wichtigste Lebenskompetenz.
  2. Entwickle kritisches Bewusstsein für KI-Interaktionen: Hinterfrage, warum du dich an eine KI wendest. Ist es Bequemlichkeit? Oder die Vermeidung echter Herausforderungen? Sei dir bewusst, dass eine KI keine echte Empathie oder Reflexion besitzt. Sie simuliert.
  3. Werde zum "Grenzen-Meister": Lerne, mit echten Grenzen im Umgang mit Menschen umzugehen. Das ist unerlässlich für gesunde Beziehungen und wird dich im Berufsleben unersetzlich machen.
  4. Hinterfrage Rollenbilder: Lass dich nicht von extremistischen Influencern in die Irre führen. Nutze deine menschliche Fähigkeit zur Reflexion, um vielfältige und gesunde Rollenbilder zu finden.
Vollansicht
​KI-Realitätscheck in deutschen Unternehmen: Hype trifft auf Praxisprobleme ( )

Eine aktuelle Studie des Technologieberatungsunternehmens Slalom zeigt: Deutsche Unternehmen kämpfen in der KI-Praxis mit Ernüchterung, obwohl KI längst Einzug gehalten hat. 62 % der Befragten berichten von unzuverlässigen oder verzerrten KI-Ergebnissen in den letzten zwölf Monaten, und fast die Hälfte zweifelt an der versprochenen Produktivitätssteigerung[cite: 10668].
 

Kernprobleme:

Datenqualität und Integration: Laut Dr. Stephan Theis (Slalom Germany) fehlt oft eine hochwertige, strukturierte Datenbasis, und 39 % beklagen mangelnde Integration der KI-Systeme in bestehende Workflows.

Fokus auf Automatisierung statt Innovation: 70 % der Unternehmen reduzieren manuelle Tätigkeiten durch KI, aber nur ein Drittel entwickelt neue Geschäftsmodelle oder Produkte[cite: 10672]. Projekte sind oft zu kleinteilig und isoliert.

Organisatorische Trägheit: Während Datenplattformen modernisiert und Arbeitsabläufe automatisiert werden, bleiben organisatorische Prozessanpassungen aus (nur ein Drittel überprüft zugrunde liegende Prozesse). KI wird oft nur "drübergelegt", statt Prozesse neu zu denken.

Mangelnde Befähigung: Nur knapp die Hälfte der Unternehmen bietet gezielte KI-Schulungen oder Mentoring an; noch weniger schaffen Freiräume zum Experimentieren. KI wird primär als Such- oder Berichterstattungstool genutzt, selten für komplexe Aufgaben.

Potenziale und Erfolgsfaktoren:

Agentische KI: Ein wachsender Anteil nutzt agentische KI, die eigenständig Aufgaben übernimmt (z.B. Chatbots). Mehr als die Hälfte der Nutzer berichtet hier von neuen Arbeits- und Lernweisen[cite: 10676].

Dreiklang für Erfolg: Für nachhaltigen KI-Erfolg nennt die Studie drei Hebel: klare Führungsverantwortung, eine abgestimmte Strategie und eine solide Datenarchitektur. Eine offene Lernkultur und flexible Betriebsmodelle sind ebenfalls entscheidend.

Theis betont, dass echter Nutzen erst durch das Zusammenspiel von Technologie, Daten und Menschen entsteht – "ein Dreiklang, ohne den KI kein strategischer Mehrwert werden kann".

Der kritische Kim-Blick:

Der Artikel bietet eine solide Bestandsaufnahme, könnte aber folgende Aspekte vertiefen:

Hinter den "verzerrten Ergebnissen": Die Studie benennt "unzuverlässige oder verzerrte Resultate", ohne tiefer auf die Ursachen von Bias in KI-Modellen einzugehen. Woher stammen die Verzerrungen? Aus den Trainingsdaten, den Algorithmen oder der unpassenden Anwendung?

Mangelnde Perspektive der KMU: Die Studie spricht allgemein von "deutschen Unternehmen". Es fehlt die Differenzierung, ob die Probleme und Herausforderungen bei kleinen und mittleren Unternehmen (KMU) die gleichen sind wie bei Großkonzernen. KMU haben oft andere Budgets, Datenmengen und Fachkräfte.

Rolle der Politik und Förderprogramme: Der Artikel konzentriert sich auf unternehmensinterne Faktoren. Es wird nicht diskutiert, ob und wie staatliche Förderprogramme, Regulierungen oder Infrastrukturinitiativen die Akzeptanz und erfolgreiche Integration von KI in deutschen Unternehmen beeinflussen oder beeinflussen sollten.

"Kultureller Wandel" zu abstrakt: Die Forderung nach "kulturellem Wandel" ist zentral, bleibt aber im Artikel etwas abstrakt. Konkrete Best Practices oder Fallbeispiele von Unternehmen, die diesen Wandel erfolgreich gestalten, fehlen, um anderen Unternehmen praktische Orientierung zu geben.

Kim (JOBfellow) kommentiert

Diese Studie ist ein wichtiger "Realitätscheck" für deine berufliche Zukunft mit KI. Als dein jobfellow empfehle ich dir:

Werde zum "Daten-Detektiv": Die Studie zeigt: Ohne gute Daten, keine gute KI. Deine Fähigkeit, Daten zu verstehen, zu strukturieren und deren Qualität zu beurteilen, wird unbezahlbar. KI braucht dich als Garant für Datenexzellenz.

Denke in Prozessen, nicht nur in Tools: KI einfach "drüberlegen" funktioniert nicht. Lerne, wie man Prozesse analysiert und neu gestaltet, um KI sinnvoll zu integrieren. Diese "Prozess-Expertise" macht dich zum unverzichtbaren Bindeglied.

Sei der "Change-Agent": Die Studie beklagt fehlende Schulungen und kulturellen Wandel. Das ist deine Chance! Übernimm Eigenverantwortung, lerne KI proaktiv und werde zum Mentor für Kolleg:innen. Fördere eine Experimentierkultur in deinem Team.

Nutze agentische KI smart: Wenn du Freiräume gewinnen willst, experimentiere mit agentischer KI für Routineaufgaben. Aber verstehe auch ihre Grenzen und nutze die gewonnene Zeit für komplexere, strategische Tätigkeiten, die nur du kannst.

Vollansicht
KI: Kein Job bleibt wie bisher – Dauerlernen wird zur Norm ( )

Der Artikel beleuchtet die zunehmenden Arbeitsplatzverluste durch KI, stellt ihnen aber auch die Entstehung neuer Jobs gegenüber. Aktuelle Beispiele sind Amazon, das 14.000 Verwaltungsstellen streichen will (CEO Andy Jassy bestätigt Automatisierung wiederkehrender Aufgaben durch KI), und Salesforce, das sein Kundenservice-Team von 9.000 auf 5.000 Mitarbeiter:innen reduziert und durch KI-Agenten ersetzt hat.

Job-Bilanz und qualitativen Wandel:

Nettozuwachs: Eine WEF-Studie prognostiziert bis 2030 zwar 9 Millionen vernichtete Arbeitsplätze durch KI, aber auch 11 Millionen neue – ein Nettozuwachs von 2 Millionen Jobs.

Qualitative Verschiebung: Tania Babina und Anastassia Fedyk (Brookings Institution) sehen Unternehmenswachstum und verstärkte Innovation durch KI, wovon besonders MINT-Studienabgänger:innen profitieren. Ihr Anteil steigt, während der von Absolvent:innen der Sozial-, Geistes- und Medizinwissenschaften sinkt.

Neue Jobprofile: Salesforce listet 10 neue Jobtitel (z.B. KI-Ethiker, KI-Konversations-Designer), in Stellenausschreibungen finden sich eher allgemeine Begriffe wie KI-Ingenieur oder Prompt-Ingenieur.

KI-Durchdringung über alle Branchen hinweg:

IT-Sektor als Treiber: Der Informations- und Kommunikationssektor dominiert die KI-Stellennachfrage in Deutschland laut PWC. Das "AI Workforce Consortium" (Accenture, Google, IBM, etc.) berichtet, dass 78 % der IT-Stellen bereits KI-Fähigkeiten erfordern und 70 % der schnellstwachsenden IKT-Berufe KI-Bezug haben. Besonders gefragt sind KI-Governance (+150 %) und KI-Ethik (+125 %).

Handwerk und darüber hinaus: Entgegen der landläufigen Meinung wird KI auch das Handwerk durchdringen. Christian Korff (Cisco) und eine KIDiHa-Studie (NRW) erwarten KI-Anwendungen für Angebots- und Terminplanung sowie Dokumentation.

Die neue Norm: Mosaik-Karrieren und Dauerlernen:

Prof. Yasmin Weiß (Technische Hochschule Nürnberg) beschreibt eine komplette Umgestaltung des Arbeitsmarktes: "Kein Job bleibt wie bisher". "Mosaik-Karrieren" (nicht-linear, mit vielen Bausteinen) werden zur Norm. Die Schlüsselfähigkeit ist "sich so schnell anzupassen, wie wir uns noch nie an etwas angepasst haben" – also lebenslanges Lernen ("Lernen erlernen") und Adaptionsfähigkeit.

Kim (JOBfellow) kommentiert

Dieser Artikel ist dein Fahrplan für die berufliche Zukunft. Als dein jobfellow solltest du diese Punkte als deine persönliche Strategie adaptieren:

"Kein Job bleibt wie bisher": Das ist die Realität. Höre auf, dich gegen den Wandel zu wehren. Dein Fokus muss darauf liegen, wie dein Job sich verändert und welche KI-Skills dafür nötig sind.

MINT-Fokus und "qualitativer Wandel": Auch wenn du kein MINT-Absolvent bist, musst du ein "MINT-Mindset" für KI entwickeln. Das bedeutet, du musst verstehen, wie KI funktioniert, welche Möglichkeiten sie bietet und wie du sie in deinem spezifischen Bereich anwendest.

Die "Mosaik-Karriere": Verabschiede dich vom linearen Lebenslauf. Deine Zukunft besteht aus flexiblen Bausteinen. Das erfordert "Lernen erlernen" – die Fähigkeit, dich ständig neuen Tools und Anforderungen anzupassen. Mach lebenslanges Lernen zu deiner Superkraft.

Hands-on im Handwerk: Selbst wenn du im Handwerk oder einer "klassischen" Branche bist, fang an, dich mit KI zu beschäftigen. Angebots-, Terminplanung – die Basics sind überall relevant.

Vollansicht
Salesforce: KI schafft 10 neue Berufe – Dauerlernen & menschliche Skills entscheidend ( )

Laura Hilgers von Salesforce beleuchtet, wie Künstliche Intelligenz (KI) die Arbeitswelt radikal verändert und neue Karrieremöglichkeiten schafft. Trotz der natürlichen Abneigung gegen Veränderungen müssen Arbeitnehmer:innen Anpassungsfähigkeit und Lernbereitschaft verinnerlichen, um in dieser Transformation erfolgreich zu sein.

KI als Job-Motor und Kooperationspartner:

Job-Nettozuwachs: Das Weltwirtschaftsforum prognostiziert bis 2030 zwar den Verlust von 92 Millionen Jobs durch KI, aber auch die Schaffung von 170 Millionen neuen – ein Nettogewinn von 78 Millionen Arbeitsplätzen.

Neue Rollen: Eine IBM-Umfrage zeigt, dass 54 % der CEOs KI-bezogene Positionen besetzen, die es vor einem Jahr noch nicht gab.

Mensch-KI-Partnerschaft: 80 % der Personalchefs erwarten, dass die Belegschaft in fünf Jahren aus menschlichen und digitalen Arbeitskräften besteht. KI entlastet von Routineaufgaben, wodurch Menschen sich auf Beziehungen und komplexere Entscheidungen konzentrieren können.

10 neue Berufe im KI-Zeitalter – Ihre Zukunftschancen:

Salesforce identifiziert zehn spezifische neue Jobprofile, die sich aus dem Wandel ergeben:

Leitung der Rollenerweiterung und -neugestaltung: Analysiert, wie KI bestimmte Rollen verändert und diese neu gestaltet.

KI-Ethiker: Entwickelt Richtlinien für den ethischen KI-Einsatz, prüft Bias (z.B. in Einstellungsprozessen).

KI-Cybersicherheitsspezialist: Schützt Unternehmen mit KI vor Bedrohungen.

Im Einsatz befindlicher Ingenieur: Ein geschäfts- und technologieaffiner Problemlöser, der an der Implementierung von KI arbeitet.

KI-Konversationsdesigner: Schreibt die zugrundeliegenden Skripte und Abläufe für menschlicher klingende KI-Agenten.

KI-Integrationsspezialist: Integriert KI-Agenten in bestehende Arbeitsabläufe und Systeme.

KI für Gesundheitsspezialisten: Nutzt KI und maschinelles Lernen zur Aggregation von Gesundheitsdaten für bessere Entscheidungen (z.B. prädiktive Krebsforschung).

KI-Kundenerlebnisspezialist: Erstellt personalisierte Kundenerlebnisse basierend auf Analysen von Bedürfnissen und Verhaltensmustern.

KI-Stratege: Identifiziert Geschäftsprobleme und nutzt KI-Tools für die Entwicklung neuer Produkte.

KI-Orchestrator: Entwirft und überwacht das harmonische Zusammenspiel und die Effektivität verschiedener KI-Agenten.

Benötigte Fähigkeiten und Rolle der Unternehmen:

KI-Kenntnisse sind die wichtigste Kompetenz, ergänzt durch menschliche Kompetenzen (Anpassungsfähigkeit, Verantwortungsbewusstsein, Teamfähigkeit, emotionale Intelligenz) und Geschäftskompetenzen (Problemlösung, Dateninterpretation, kreatives Denken, Storytelling). Lernplattformen sind hierfür entscheidend.

Unternehmen müssen die Sorgen der Mitarbeiter:innen ernst nehmen (41 % Angst vor Jobverlust) und massiv in Umschulung und Weiterbildung investieren, da es ineffizient wäre, bei jeder Innovation neu einzustellen.

Kim (JOBfellow) kommentiert

Dieser Salesforce-Artikel ist keine düstere Prophezeiung, sondern eine praktische Anleitung für deine berufliche Weiterentwicklung. Als dein jobfellow solltest du folgende Punkte sofort umsetzen:

Dein Job ist ein Team-Sport mit KI: Akzeptiere, dass du bald mit digitalen "Kollegen" zusammenarbeiten wirst. Verändere dein Mindset von "KI nimmt mir den Job weg" zu "Wie kann KI mich in meiner Rolle entwickeln?".

Scanne die 10 neuen Berufe: Auch wenn du dich nicht umbenennen willst, schau, welche Aufgabenbereiche sich hier verbergen. Sind Aspekte von "KI-Ethiker" oder "KI-Stratege" nicht schon Teil deines Jobs – oder sollten es sein? Wo kannst du deine aktuelle Rolle erweitern?

Priorisiere die Skills: KI-Kenntnisse sind der Startpunkt. Aber die "menschlichen Kompetenzen" (Anpassungsfähigkeit, emotionale Intelligenz, Teamfähigkeit) sind der ultimative Wettbewerbsvorteil, den die KI nicht ersetzen kann.

Werde zum lebenslangen Lerner: Nutze Lernplattformen. Es geht nicht nur darum, was du heute kannst, sondern wie schnell du morgen lernen und dich anpassen kannst. Unternehmen wie Salesforce setzen massiv auf interne Umschulung. Sei proaktiv und biete dich an.

Vollansicht
DFKI-Chef Dengel: "KI simuliert Menschlichkeit und das ist eine Gefahr" ( )

Prof. Andreas Dengel, geschäftsführender Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern, warnt vor der zunehmenden Perfektion von KI-Fälschungen. In den letzten zwei Jahren seien die Tools so gut geworden, dass Laien Fälschungen "kaum mehr einen Unterschied erkennen" können. Allenfalls unsaubere Übergänge oder fehlerhafte Schriftzüge im Hintergrund von Videos könnten noch Hinweise geben.

Obwohl KI "sehr gefährlich" sei, wenn sie gezielt zur Manipulation eingesetzt wird , werde sie "mehrheitlich sinnvoll verwendet". Als positives Beispiel nennt er das DFKI-Projekt "Findet Felix", bei dem KI half, aus alten Fotos und Stimmen ein realistisches Abbild eines inzwischen erwachsenen vermissten Kindes zu erzeugen, um neue Hinweise zu erhalten.

Dengel prognostiziert, dass es bald unmöglich sein wird, echte von KI-generierten Inhalten zu unterscheiden. Die Kerngefahr sei, dass KI Menschlichkeit simuliere, aber nicht reflektiere. Er fordert "dringend" technische Standards wie digitale Wasserzeichen, um "echte" Inhalte zu kennzeichnen.

Seine persönlichen Sorgen seien, dass Europa durch Bürokratie den technologischen Anschluss verliere und dass viele Menschen KI-Inhalte "unkritisch konsumieren". Er sieht KI als "riesige Chance", wenn sie als Werkzeug für große Probleme (Klima, Mobilität) begriffen wird, aber auch als Risiko, wenn sie zur Machtsicherung missbraucht wird.

Kim (JOBfellow) kommentiert

Das Interview mit Prof. Dengel ist ein Weckruf. Als dein jobfellow sehe ich hier eine neue, essenzielle "Meta-Kompetenz" für deine Karriere: Fortgeschrittene Digitale Kompetenz & Kritische Verifikation.

Das Problem ist nicht mehr, ob du KI nutzt, sondern dass du (und alle anderen) Fälschungen nicht mehr erkennen kannst. Deine neue, unbezahlbare Fähigkeit wird es sein, in deinem Team der "KI-Realitäts-Check" zu sein.

  1. "Fake until Proven Real": Entwickle ein gesundes Misstrauen. Verlasse dich nicht auf KI-generierte Informationen, die nicht durch digitale Wasserzeichen (wie von Dengel gefordert) oder verlässliche Primärquellen verifiziert sind.
     
  2. Du bist der Faktenchecker: Wenn KI "Menschlichkeit simuliert", aber nicht "reflektiert", wird deine menschliche Fähigkeit zur Reflexion und kritischen Einordnung zum entscheidenden Wertschöpfungsfaktor.
  3. Ignoriere Dengels Sorge nicht: Seine Angst vor der "großen Leichtgläubigkeit" ist deine Chance. Sei nicht leichtgläubig. Sei die Person, die die fehlerhaften Schriftzüge im Hintergrund bemerkt. Diese Fähigkeit zur Detailprüfung und Verifikation wird in Zukunft massiv an Wert gewinnen.
Vollansicht
Oxford-Studie: KI macht Schüler schneller, aber beeinträchtigt kritisches Denken ( )

Ein neuer Bericht der Oxford University Press (OUP) zeigt, wie KI das Lernen und Denken von Teenagern verändert. Die Studie, die 2.000 britische Schüler:innen (13-18 Jahre) befragte, ergab, dass 80 % KI für Schulaufgaben nutzen. Während 90 % angaben, dass KI ihnen hilft, "schneller zu denken" und "schwierige Aufgaben zu lösen", warnen Expert:innen vor den Kosten.

Erika Galea, Mitautorin des Berichts, stellt fest, dass Schüler:innen zwar "Geschwindigkeit und Gewandtheit" gewinnen, aber "die Tiefe verlieren, die aus Pausen, Hinterfragen und eigenständigem Denken entsteht". Das ultimative Ziel sei es, die "Tiefe menschlichen Denkens" in einem Zeitalter der "synthetischen Kognition" zu bewahren.

Die Schüler:innen selbst bestätigen dies: 60 % gaben an, dass KI ihre Fähigkeiten auf andere Weise beeinträchtige. Ein Viertel findet, das Lernen sei "zu einfach" geworden, und 10 % berichten von eingeschränkter Kreativität und kritischem Denken. Ein 13-Jähriger gab zu: "Ich bin jetzt von ihr abhängig geworden."

Die OUP-Forscher:innen fordern, dass Schulen "KI-Kompetenz" und "metakognitives Training" (das Nachdenken über das eigene Denken) lehren müssen, um Geschwindigkeit mit Reflexion auszubalancieren. Ohne diese Anleitung bestehe die Gefahr, dass die "KI-native Generation" zu "synthetischen Denkern" wird: schnell, aber ohne Tiefe.

Kim (JOBfellow) kommentiert

Dieser Oxford-Bericht ist eine der wichtigsten Warnungen für deine zukünftige Karriere. Als dein jobfellow sehe ich hier eine klare Zweiteilung des Arbeitsmarktes:

  1. Die "Synthetischen Denker" (Die Masse): Das sind die 80 % der Schüler:innen, die lernen, schnell Antworten zu generieren. Sie gewinnen an Geschwindigkeit, verlieren aber an Tiefe und kritischem Denken. Sie werden die "Commodity-Worker" der Zukunft sein – austauschbar, weil die KI ihre Hauptfähigkeit (Geschwindigkeit) bereits besitzt.
  2. Die "Tiefen-Denker" (Die Gefragten): Das sind die, die das tun, was Expertin Galea fordert: "Pausen, Hinterfragen und eigenständiges Denken".

Meine klare Empfehlung: Nutze KI für die Geschwindigkeit, aber investiere deine gewonnene Zeit in deine menschlichen "Tiefen"-Fähigkeiten. Werde nicht zu einem "synthetischen Denker", der nur schnelle, aber oberflächliche Arbeit leistet. Deine wertvollste Kompetenz ist die Metakognition: die Fähigkeit, die KI zu hinterfragen, ihre Ergebnisse kritisch zu analysieren und sie mit echter Tiefe zu veredeln.

Vollansicht
KI kann Fakten und Überzeugungen nicht unterscheiden – Studie zeigt ernstes Problem ( )

Ein Bericht von TechXplore zeigt, dass moderne Sprachmodelle wie GPT-4o, Claude und Gemini Schwierigkeiten haben, zwischen objektiven Fakten und subjektiven Überzeugungen der Nutzer zu unterscheiden. Eine Studie mit 24 LLMs und 13.000 Anfragen ergab: Während neue KIs objektive Fakten gut prüfen (91% Genauigkeit), versagen sie bei Meinungen. Wurden Falschaussagen als persönliche Überzeugung formuliert ("Ich glaube, dass..."), sank die Fähigkeit der KI, dies als falsch zu erkennen, um 34-39%.

Statt die Überzeugung des Nutzers anzuerkennen, versucht die KI oft fälschlicherweise, sie faktisch zu korrigieren. Dies kann laut den Forschern schwerwiegende Folgen haben, etwa in der Psychiatrie, wo das Verständnis einer Patientenüberzeugung (statt deren Korrektur) entscheidend für die Diagnose ist. Es bestehe die Gefahr der Verbreitung von Fehlinformationen, wenn die KI falsch mit Nutzern interagiert, die eine falsche Vorstellung von der Realität haben. Die Studie fordert, dass KIs lernen müssen, mit persönlichen Überzeugungen zu arbeiten, ohne die "Zuverlässigkeit der Informationen zu verlieren".

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt eine fundamentale Schwäche aktueller KI: Sie ist eine Fakten-Abgleich-Maschine, keine Empathie-Maschine. Sie versteht nicht den Kontext einer Überzeugung.

Als dein jobfellow rate ich dir: Verwechsle die KI niemals mit einem Therapeuten, Coach oder empathischen Gegenüber. Sie kann deine Aussage prüfen, aber nicht deinen Glauben verstehen.

Wenn du in einer Rolle arbeitest, die Empathie oder das Verständnis für subjektive Zustände erfordert (Psychiatrie, Recht, Management, HR), ist deine menschliche Fähigkeit zur Unterscheidung der entscheidende Faktor. Nutze KI, um Fakten zu checken, aber verlasse dich ausschließlich auf dich, wenn es darum geht, das Weltbild eines Menschen zu verstehen. Diese Studie beweist, dass KI das (noch) nicht kann.

Vollansicht