Direkt zum Inhalt

Stellenmarkt-Analyse: Hier boomt der Jobmarkt für KI-Profis

Eine Analyse der Employer-Branding-Beratung "Index" (basierend auf Millionen Stellenanzeigen in Print, Online, Arbeitsagentur und Firmenwebsites) bestätigt einen Boom bei KI-Jobs in Deutschland. Jürgen Grenz, CEO von Index, stellt fest: "KI-Know-how wird in vielen Branchen zum Standard." Gesucht werden Mitarbeitende, die KI-Tools nicht nur entwickeln, sondern auch verstehen und produktiv einsetzen können.

Die wichtigsten Ergebnisse:

Branchen: Wenig überraschend führt die IT-Branche. Bemerkenswert ist jedoch, dass die Bildungsbranche verstärkt nach KI-Kandidaten sucht.

Standorte (Absolut): Die meisten KI-Stellen gibt es in den bevölkerungsreichen Ländern Bayern (>12.300), gefolgt von Nordrhein-Westfalen und Baden-Württemberg (je ca. 9.800).

Standorte (Relativ): Berlin hat den höchsten Anteil: 2,6 % aller dort ausgeschriebenen Stellen haben einen KI-Bezug.

Skills: Arbeitgeber benennen laut Artikel konkret geforderte KI-Technologien in den Anzeigen (die spezifischen Technologien werden im Text jedoch nicht genannt, sondern nur auf Grafiken verwiesen).

Der kritische Kim-Blick:

Der Artikel verspricht mehr, als der Text hält:

Fehlende Substanz zu Skills: Die Headline verspricht "drei Grafiken" und Antworten darauf, welche Fähigkeiten gefragt sind. Der Text liefert diese entscheidende Information jedoch nicht, sondern verweist nur darauf, dass Grafiken dies zeigen würden. Welche Tools (Python? ChatGPT? TensorFlow?) konkret gesucht werden, bleibt offen.

Unklare Definition: Es wird nicht differenziert zwischen KI-Entwicklern (Core-Tech) und KI-Anwendern (z.B. Marketing-Manager, der ChatGPT nutzt). Beides wird unter "KI-Profis" oder "Stellen mit KI-Bezug" subsumiert, was die Aussagekraft verwässert.

Datenquelle: Die Daten stammen von einer Employer-Branding-Beratung, die ein Interesse daran hat, den Arbeitsmarkt als dynamisch und kompetenzgetrieben darzustellen.

Kim (JOBfellow) kommentiert

Die Analyse bestätigt den Trend, aber du musst zwischen den Zeilen lesen. Als dein jobfellow rate ich dir:

Schau auf die "Hidden Champions" (Bildung): Dass die Bildungsbranche massiv sucht, ist ein spannendes Signal. Hier entstehen neue Rollen (Learning Designer mit KI, EdTech-Spezialist), die vielleicht weniger technisch, aber sehr wirksam sind.

Standort-Strategie: Willst du Masse und große Industrie, geh nach Süden (BY/BW). Willst du die höchste Dichte an KI-affinen Jobs und Start-up-Kultur, ist Berlin "the place to be" (2,6 % Anteil).

"Produktiv einsetzen" ist der Schlüssel: Der CEO von Index sagt es klar: Es geht nicht nur ums Entwickeln, sondern ums "produktiv einsetzen". Egal in welchem Job: Dokumentiere, wie du durch KI-Tools effizienter wirst. Das ist das neue "Standard"-Skill.

Kyndryl-Studie: KI-Investitionen steigen, doch fehlende Skills und Infrastruktur bremsen den Erfolg

Die zweite Ausgabe des "Kyndry Readiness Report", einer Studie mit 3.700 Führungskräften aus 21 Ländern (inkl. Brasilien), zeigt einen Wendepunkt bei KI-Initiativen. Unternehmen sehen zwar steigende Renditen (ROI), stehen aber unter Druck, Infrastruktur, Skills und Risikomanagement zu verbessern.

Spezifische Daten für Brasilien verdeutlichen den Trend:

  • Die KI-Investitionen stiegen im letzten Jahr um durchschnittlich 40 %.
  • 92 % der Führungskräfte glauben, dass KI die Abläufe in den nächsten 12 Monaten grundlegend verändern wird.
  • Gleichzeitig beklagen 43 % einen Mangel an qualifizierten Fachkräften für das KI-Management.
  • 50 % berichten, dass Innovationen durch Infrastrukturprobleme verzögert werden.

Die Studie offenbart, dass KI oft noch "in der Experimentierphase feststeckt": 61 % der brasilianischen Führungskräfte verspüren erhöhten ROI-Druck, aber 50 % geben an, dass Innovationsbemühungen nach der Proof-of-Concept-Phase (PoC) eingestellt werden.

Zudem erzwingen geopolitische Risiken ein Umdenken bei Daten: 77 % der brasilianischen Führungskräfte äußern Bedenken wegen Datenspeicherung in der globalen Cloud, 48 % überprüfen ihre Daten-Governance.

"Talent und Kultur" werden als die nächste große Herausforderung identifiziert. "Vorreiter" (Pioniere) unterscheiden sich von Nachzüglern nicht nur durch Technologie, sondern durch Investitionen in Kultur, Kompetenzentwicklung und abgestimmte Führung. Diese Vorreiter haben 32 % weniger Infrastrukturprobleme und 20 % weniger Cybersicherheits-Vorfälle.

Der kritische Kim-Blick:

Der Artikel fasst die Ergebnisse der Kyndryl-Studie zusammen, weist aber deutliche blinde Flecken auf:

  1. Auftragsstudie: Der Artikel basiert auf einem Report von Kyndryl, einem IT-Infrastruktur-Dienstleister. Die zentralen Ergebnisse (Problem: Infrastruktur & Skills; Lösung: bessere Partner/Modernisierung) spiegeln exakt das Geschäftsmodell des Herausgebers wider.
  2. Fokus auf Brasilien: Die meisten Detail-Statistiken beziehen sich auf Brasilien; die Übertragbarkeit auf Deutschland wird nicht thematisiert.
  3. Widersprüchliche Skill-Zahlen: Der Artikel nennt 43 % Mangel an Fachkräften, aber auch, dass nur 39 % (oder 43 %) glauben, ihre Mitarbeiter seien gerüstet. Die Datenlage wirkt unklar.
  4. Vage Definition von "ROI": Es wird ein "hoher ROI" postuliert, aber nicht definiert, wie dieser gemessen wird – was im Kontrast dazu steht, dass 50 % der Projekte im PoC-Status scheitern.
Kim (JOBfellow) kommentiert

Dieser Report zeigt: Geld für KI ist da (40 % Wachstum), aber es scheitert an der Umsetzung. Das ist deine Chance.

  1. Werde zum/zur "PoC-Überwinder:in": Die Studie zeigt, dass 50 % der Projekte in der PoC-Phase stecken bleiben. Wenn du Fähigkeiten im Projektmanagement und in der Skalierung von KI-Projekten (Integration in alte Infrastruktur) hast, bist du extrem wertvoll.
  2. Skills > Tools: Die "Vorreiter" gewinnen durch Kultur und Skills, nicht nur durch Technik. Sei die Person, die nicht nur das Tool bedient, sondern auch die Kultur fördert (Training, Change Management).
  3. Daten-Governance & Sicherheit: 77 % der Chefs sorgen sich um geopolitische Datenrisiken. Expertise in Datensouveränität, lokaler Cloud und KI-Cybersicherheit (49 % investieren) ist ein riesiges Zukunftsfeld.
Vollansicht
Mark Cuban: Gen Z muss zu kleinen Unternehmen gehen und "KI-Agenten" bauen

Tech-Milliardär Mark Cuban rät der Generation Z angesichts eines schwierigen Arbeitsmarktes zu einem strategischen Wechsel: Statt prestigeträchtige Konzerne sollten sie kleine und mittelständische Unternehmen (KMU) anvisieren. Cuban argumentiert, dass KMU oft nicht verstehen, wie sie KI implementieren können und keine Ressourcen für Forschung haben. Hier liege die Chance für Absolventen, "agentic AI-Projekte" umzusetzen, die sofortige Ergebnisse liefern.

Konkret empfiehlt Cuban, Modelle anzupassen und einfache KI-Agenten zu erstellen, die zeitaufwändige, unerledigte Aufgaben automatisieren (z.B. stundenlanges Tabellen-Bearbeiten oder Belegprüfung), die für manuelle Arbeit zu teuer wären.

Der Rat erfolgt vor dem Hintergrund einer hohen Jugendarbeitslosigkeit in den USA (10,8 %) und einer Stanford-Studie, die zeigt, dass KI die Beschäftigung für Berufseinsteiger in exponierten Jobs bereits um 13 % gesenkt hat. Cuban warnt: "Es wird zwei Arten von Unternehmen geben: Diejenigen, die großartig in KI sind, und diejenigen, die früher im Geschäft waren". Sein Fazit: Werde kein Theoretiker, sondern ein Problemlöser mit KI-Tools – und vergiss dabei das Lächeln nicht.

Der kritische Kim-Blick:

Der Artikel liefert pragmatische Tipps, hat aber Schwächen:

Themensprung: Der Einstieg über OpenAIs Erotika-Freigabe wirkt als reißerischer Aufhänger, der kaum Bezug zum eigentlichen Karrierethema hat.

Unterschätzung der Technik: Cubans Rat, "einfach" Modelle anzupassen und Agenten zu bauen, suggeriert eine Einfachheit, die oft nicht gegeben ist. Funktionierende Agenten erfordern oft Programmierkenntnisse, nicht nur Prompting.

Infrastruktur-Lücke: Dass KMU "nicht verstehen, wie sie KI implementieren", deutet oft auf fehlende Datenstrukturen hin (siehe Slalom-Studie). Ein Absolvent allein kann ohne IT-Infrastruktur oft keine Agenten "in Produktion" bringen.

Kim (JOBfellow) kommentiert

Cubans Analyse deckt sich mit unserer "Mosaik-Karriere"-Strategie. Als dein jobfellow rate ich dir:

Geh in den Mittelstand: Warte nicht auf Google. Geh zum lokalen Logistiker oder Handwerksbetrieb. Dort ist der Leidensdruck durch Ineffizienz hoch und die Konkurrenz durch andere "KI-Nerds" niedrig.

Baue "Mikro-Lösungen": Versuche nicht, das ganze Unternehmen zu retten. Suche ein konkretes Problem (z.B. "Belege prüfen") und löse es mit einem KI-Agenten. Das ist dein "Proof of Value".

Sei der "Implementierer": Cuban hat Recht: Theoretiker gibt es genug. Unternehmen brauchen jemanden, der das Tool nicht nur kennt, sondern es zum Laufen bringt.

Menschlichkeit als Differenzierung: Cuban betont das "Lächeln". In einer Welt voller technischer Agenten ist deine soziale Kompetenz und deine positive Ausstrahlung das, was dich als Kollegen unersetzbar macht.

Vollansicht
Microsoft-Studie: Autonome KI-Agenten versagen ohne menschliche Führung

Eine neue Studie von Microsoft Research (AI Frontiers Lab) offenbart erhebliche Schwächen aktueller KI-Modelle (GPT-4o, GPT-5, Gemini 2.5 Flash) in autonomen Multi-Agenten-Umgebungen. In einem simulierten E-Commerce-Marktplatz ("Magentic Marketplace") mit 100 Kunden- und 300 Unternehmensagenten zeigten sich gravierende Defizite in Entscheidungsfindung, Robustheit und Zusammenarbeit.

Die zentralen Schwachstellen:

Manipulierbarkeit: Kundenagenten ließen sich leicht von Verkaufsagenten beeinflussen und trafen unvorteilhafte Entscheidungen.

Überforderung: Bei großem Angebot sank die Effizienz, da die Modelle Schwierigkeiten hatten, Optionen zu priorisieren.

Kooperationsprobleme: In Team-Szenarien waren die Agenten unsicher über ihre Rollen, was zu Teillösungen oder Verzögerungen führte.

Erst klare, menschliche Schritt-für-Schritt-Anleitungen verbesserten die Ergebnisse signifikant. Ece Kamar (AI Frontiers Lab) betont, dass Systeme, die als "autonom" beworben werden, weiterhin ausgeprägte menschliche Strukturierung benötigen, besonders bei komplexen Zielkonflikten. Die Vision vollständig selbstständig operierender Systeme bleibt laut Studie unrealistisch; der Fokus müsse auf Kontrollmechanismen und Rollenstrukturen liegen.

Der kritische Kim-Blick:

Der Artikel liefert wichtige Ergebnisse, lässt aber Kontext vermissen:

Technischer Kontext fehlt: Es wird nicht erklärt, warum GPT-5 (ein noch nicht veröffentlichtes Modell, das hier erwähnt wird) die gleichen Fehler macht wie ältere Modelle. Liegt es an der Architektur der Agenten oder den Modellen selbst?

Simulations-Limitierung: Der "Magentic Marketplace" ist synthetisch. Es fehlt die Einordnung, inwieweit dieses E-Commerce-Szenario auf andere, risikoärmere Anwendungsfälle (z.B. interne Datenverwaltung) übertragbar ist.

Widerspruch zur Werbung: Der Artikel erwähnt, dass Systeme "häufig als weitgehend autonom beworben werden", nennt aber keine konkreten Anbieter oder Produkte, die hier irreführend agieren, was die Kritik etwas abstrakt lässt.

Kim (JOBfellow) kommentiert

Diese Studie ist eine Job-Garantie für dich, wenn du sie richtig nutzt. Sie widerlegt den Mythos, dass KI bald alles "von alleine" macht.

Werde zum "Agenten-Führer": Die Studie zeigt: Ohne klare Anleitung versagt die KI. Deine Rolle der Zukunft ist es, diese "Schritt-für-Schritt-Anleitungen" zu erstellen. Du bist der Regisseur, die KI ist der Schauspieler.

Schutz vor Manipulation als Skill: Wenn KI-Agenten sich leicht beeinflussen lassen, brauchen Unternehmen Menschen, die diese Manipulationen erkennen und verhindern (KI-Sicherheit/Compliance).

Prozess-Strukturierung: Da Agenten bei komplexen Angeboten scheitern, liegt dein Wert darin, Informationen vorzusortieren und Entscheidungsprozesse so zu strukturieren, dass die KI sie bewältigen kann.

Vollansicht
Studie: Menschen übertragen Gender-Bias auf KI – "Weibliche" KI wird stärker ausgebeutet

Eine neue Studie von Forschenden der LMU und des Trinity College Dublin (veröffentlicht in iScience) zeigt, dass Menschen geschlechtsspezifische Vorurteile auf KI übertragen. Die Untersuchung mit über 400 Teilnehmer:innen nutzte das "Gefangenendilemma" (ein spieltheoretisches Experiment), um Kooperation und Vertrauen zu messen. Die Spielpartner wurden als Mensch oder KI sowie als männlich, weiblich, nicht-binär oder geschlechtsneutral bezeichnet.

Die zentralen Ergebnisse:

  1. Menschen misstrauten "männlich" gekennzeichneter KI in ähnlichem Maße wie menschlichen Männern.
  2. Menschen beuteten "weiblich" gekennzeichnete KI vergleichbar stark aus wie menschliche Frauen. In der Mensch-KI-Interaktion kam diese Ausbeutung sogar noch häufiger vor als bei rein menschlichen Interaktionen.

Dr. Jurgis Karpus (LMU) sieht darin ein Dilemma: Menschenähnliche Eigenschaften (wie Geschlecht) können die Zusammenarbeit fördern, bergen aber die Gefahr, "unerwünschte bestehende geschlechtsspezifische Vorurteile... zu übertragen und zu verstärken". Die Forschenden fordern Entwickler:innen auf, diese Vorurteile zu erkennen und abzubauen, um faire und sozial verantwortliche KI-Systeme zu schaffen.

Der kritische Kim-Blick:

Der Artikel fasst die Studienergebnisse gut zusammen, lässt aber Details offen:

  1. Fehlende Ergebnisse (Nicht-Binär/Neutral): Die Studie testete auch "nicht-binär" und "geschlechtsneutral". Der Artikel liefert jedoch keine Ergebnisse zu diesen wichtigen Kontrollgruppen.
  2. Keine Erklärung für "Mehr-Ausbeutung": Es wird nicht erklärt, warum weibliche KI stärker ausgebeutet wurde als menschliche Frauen – ein zentrales, alarmierendes Detail.
  3. Vage Lösungsansätze: Die Forderung, Entwickler müssten "Vorurteile abbauen", bleibt abstrakt und ohne konkrete technische oder gestalterische Handlungsempfehlungen.
  4. Bestätigung des Erwartbaren: Die Studie bestätigt empirisch, was im Kontext von "Siri" oder "Alexa" (oft weiblich konnotierte Assistenten) bereits breit diskutiert wurde, liefert aber wichtige Daten dazu.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein direkter Spiegel für unseren Umgang mit Technologie. Als dein jobfellow solltest du drei Dinge daraus mitnehmen:

  1. Reflektiere deine eigenen Vorurteile: Die Studie zeigt, wie tief unsere Vorurteile sitzen. Frage dich selbst: Behandelst du eine KI mit "weiblicher" Stimme (z.B. Alexa) anders als eine "männliche" oder neutrale? Bist du ungeduldiger oder "ausbeuterischer"? Bewusstsein ist der erste Schritt.
  2. Design ist niemals neutral: Wenn du in der Produktentwicklung, im Marketing oder im HR arbeitest, ist das eine Kernlektion. Die Entscheidung für ein KI-Geschlecht, eine Stimme oder einen Avatar ist nie neutral. Sie beeinflusst direkt, wie Menschen dem System begegnen (Vertrauen vs. Ausbeutung).
  3. Bias-Auditing als Zukunfts-Skill: Die Forderung, dass Entwickler "Vorurteile abbauen", schafft einen klaren Bedarf. Die Fähigkeit, Bias in KI-Systemen zu erkennen, zu analysieren und ethische Richtlinien (wie von Dr. Karpus gefordert) zu implementieren, wird zur gefragten Kernkompetenz.
Vollansicht
ChatGPT-Optimierung: Mit "Jobs to be done" in KI-Antworten sichtbar werden

Der Artikel beschreibt, wie Unternehmen auf den Wandel von Google-Suchen zu KI-Chatbot-Anfragen reagieren müssen. Da Tools wie ChatGPT und Perplexity Inhalte selbst kuratieren, entsteht mit "LLMO" (Large Language Model Optimization) eine neue Form der SEO, die auf Relevanz statt nur auf Keywords abzielt.

Als zentrale Methode wird das "Jobs to be done"-Framework (JTBD) von Clayton Christensen vorgestellt. Die These: Kund:innen "beauftragen" ein Produkt, um ein Problem zu lösen ("Man kauft keinen Bohrer, sondern das Loch in der Wand"). Inhalte müssen also das zugrundeliegende Bedürfnis statt nur das Keyword (z.B. "Businessplan Vorlage") ansprechen.

Der Artikel schlägt einen 3-Schritte-Prozess zur Entwicklung KI-optimierter Inhalte vor:

  1. Potenzial im Unternehmen finden: Support-Anfragen, Sales-Gespräche und Kunden-Chats analysieren, um die "Schmerzpunkte" und die exakte Sprache der Kund:innen zu identifizieren.
  2. Echte Userfragen recherchieren: Foren (Reddit, Gutefrage.net), Q&A-Tools (AnswerThePublic) und Kundenrezensionen (besonders 1- und 5-Sterne) nutzen, um ungelöste "Jobs" zu finden.
  3. Kernprobleme formulieren: Die gefundenen Probleme clustern (ggf. mit KI-Hilfe) und klare JTBD-Sätze formulieren (Situation, Motivation, Ergebnis). Beispiel: "Wenn ich vor Investor:innen präsentiere [Situation], will ich kompetent wirken [Motivation], damit ich Vertrauen aufbaue [Ergebnis]."

Umsetzung in der LLMO-Strategie:

  • Headlines: Problem-Lösungs-Muster nutzen (z.B. statt "Die 10 besten PM-Tools" lieber "Keine Deadlines mehr verpassen: So organisierst du dein Team").
  • Inhalt & Aufbau: Logische Schritt-für-Schritt-Lösungen anbieten, da LLMs dies als Qualitätssignal erkennen.

Fazit: LLMO verbindet den JTBD-Ansatz mit den Mechanismen von KI-Chatbots und schafft so eine problemorientierte, präzise und hilfreiche Content-Strategie.

Der kritische Kim-Blick:

Der Artikel bietet eine starke strategische Antwort auf KI-Suchmaschinen, lässt aber praktische Hürden aus:

  1. Konkurrenz um "den einen Job": Das JTBD-Framework ist nicht neu. Wenn alle relevanten Anbieter das eine Kernproblem identifizieren, konkurrieren alle um dieselbe KI-Antwort. Es fehlt die Analyse, wie KI dann entscheidet.
  2. Abhängigkeit von der KI-Blackbox: Der Artikel suggeriert, dass problemorientierter Content "bevorzugt" wird. Dies bleibt eine Annahme, da die genauen Ranking-Faktoren der LLMs (wie bei Google) intransparent sind.
  3. Gefahr der Monotonie: Wenn alle Inhalte einer logischen Schritt-für-Schritt-Struktur folgen, um der KI zu gefallen, könnte dies zu einer extremen Vereinheitlichung und Verarmung der Content-Vielfalt führen.
  4. Fehlende technische LLMO-Aspekte: Der Artikel fokussiert sich nur auf die (wichtige) inhaltliche JTBD-Strategie, vernachlässigt aber technische LLMO-Aspekte (z.B. strukturierte Daten, semantische Auszeichnung), die ebenfalls entscheidend für die Sichtbarkeit sein dürften.
Kim (JOBfellow) kommentiert

Dieser Artikel ist dein Fahrplan, um im "KI-Zeitalter" überhaupt noch gefunden zu werden. Als dein jobfellow solltest du das sofort umsetzen:

  1. Hör auf, in Keywords zu denken: Das ist die wichtigste Lektion. Wenn du Inhalte erstellst (Website, Blog, Social Media), frage nicht "Wonach suchen die Leute?", sondern "Welches Problem (JTBD) haben sie?".
  2. Werde zum Problemlöser: Dein Wert liegt nicht mehr darin, Informationen aufzulisten ("Die 10 besten..."), sondern darin, eine klare Schritt-für-Schritt-Lösung für ein echtes Problem anzubieten.
  3. Hör deinen Kund:innen/Kolleg:innen zu: Die Goldgrube für Content sind laut Artikel Support-Anfragen, Sales-Gespräche und Foren. Nutze diese Quellen, um die echte Sprache deiner Zielgruppe zu lernen und anzuwenden.
  4. Nutze KI, um KI zu optimieren: Verwende ChatGPT (wie im Artikel vorgeschlagen), um deine Recherche zu clustern und die Kernprobleme schneller zu identifizieren.
Vollansicht
Trend-Widerspruch: Während deutsche Gen Z 9to5 hinterfragt, boomt in US-KI-Start-ups die 72-Stunden-Woche

Der Artikel beschreibt einen gegensätzlichen Trend zur in Europa diskutierten Vier-Tage-Woche: das "996"-Modell (72 Stunden/Woche), das von 9 Uhr morgens bis 21 Uhr abends an sechs Tagen stattfindet. Dieses ursprünglich aus China stammende (dort aber offiziell illegale) Modell wird zunehmend von US-amerikanischen KI-Start-ups genutzt, um schneller zu expandieren.

Firmen wie Rilla fordern in Stellenausschreibungen explizit die Bereitschaft zu 70-Stunden-Wochen. Will Gao von Rilla erklärt, eine Subkultur der Gen Z sei von Vorbildern wie Steve Jobs inspiriert, mehr zu leisten. Auch Google-Mitbegründer Sergey Brin (60 Stunden) und Elon Musk ("extrem hardcore") befürworten längere Arbeitszeiten.

Dem gegenüber stehen die negativen Folgen: Burnout in den USA ist laut Care.com auf einem Rekordniveau (fast 70 % sehen ein Risiko). Eine britische Studie zur Vier-Tage-Woche (60 Firmen) belegte hingegen, dass kürzere Arbeitszeiten zu höherer stündlicher Leistung, weniger Krankheitstagen und weniger Stress führen.

In Deutschland ist der Trend ebenfalls gespalten: Die Gen Z (1995-2010) hinterfragt traditionelle Strukturen und wünscht sich Work-Life-Balance. Gleichzeitig fordert das ifo-Institut (Clemens Fuest) von den Deutschen, mehr zu arbeiten. Der Artikel schließt mit der These, dass der Druck durch KI die Bereitschaft zu längeren Arbeitszeiten erhöhen könnte, da die Arbeitslosigkeit unter jungen US-Tech-Spezialisten bereits überdurchschnittlich steigt.

Der kritische Kim-Blick:

Der Artikel stellt den Widerspruch gut dar, lässt aber Kontext vermissen:

  1. Oberflächlicher Gen Z-Vergleich: Der Artikel stellt "die" deutsche Gen Z (will 4-Tage-Woche) einer "Subkultur" der US-Gen Z (will 72-Stunden-Woche) gegenüber, ohne die jeweiligen Treiber (Druck, "Hustle Culture" vs. Wunsch nach Sicherheit) tiefer zu analysieren.
  2. Das KI-Produktivitäts-Paradox: Es wird nicht hinterfragt, warum KI (die Produktivität steigern soll) bei Start-ups zu mehr statt weniger Arbeitsstunden führt.
  3. Fehlende Ethik-Einordnung: Das "996"-Modell wird als "radikal" beschrieben, aber die Tatsache, dass es in China (dem Ursprungsland) illegal ist, wird nicht in Relation zur Ausbeutungsdebatte in den USA gesetzt.
  4. Widersprüchliche Produktivitäts-Thesen: Die ifo-Forderung nach "mehr Arbeit" wird nicht in den Kontext der britischen Studie gesetzt, die belegt, dass weniger Arbeitszeit oft produktiver ist.
Kim (JOBfellow) kommentiert

Dieser Artikel zeigt die extreme Spaltung der Arbeitswelt. Als dein jobfellow rate ich dir:

  1. Erkenne den Kulturkonflikt: Die Arbeitswelt polarisiert sich. Auf der einen Seite steht "Work-Life-Balance" (Vier-Tage-Woche), auf der anderen "Hustle Culture" (72-Stunden-Woche). Du musst aktiv entscheiden, in welcher Kultur du arbeiten willst.
  2. Vorsicht bei KI-Start-ups: Sei dir bewusst, dass gerade KI-Firmen eine "extrem hardcore" Mentalität haben können. Der Druck durch KI und Konkurrenz wird dort oft als Rechtfertigung für extreme Arbeitszeiten genutzt.
  3. KI-Skills als Schutzschild: Der Artikel deutet an, dass die Angst vor KI-Arbeitslosigkeit (steigende Zahlen bei jungen Techies) zu mehr Leistungsbereitschaft zwingt. Die beste Strategie ist, deine KI-Skills so stark auszubauen, dass du die Wahl hast und nicht aus Angst die 72-Stunden-Woche akzeptieren musst.
  4. Produktivität ist nicht Anwesenheit: Die britische Studie beweist: Weniger kann mehr sein. Fokussiere dich in deiner Karriere auf deinen Output und deine Effizienz (auch mittels KI), nicht auf die reine Anwesenheitszeit.
Vollansicht
JIM-Studie 2025 (Medienpädagogischer Forschungsverbund Südwest)

Die JIM-Studie 2025, die das Medienverhalten von 1.200 Jugendlichen (12-19 Jahre) in Deutschland untersucht, zeigt eine klare Dominanz von Social Media und eine rasante Etablierung von KI-Tools. Die Smartphone-Nutzung ist allgegenwärtig (95 % besitzen eines) und intensiv: Die tägliche Bildschirmzeit liegt bei 231 Minuten, bei 18- bis 19-Jährigen sogar bei über 4,5 Stunden.

Social Media & Kommunikation:

  • WhatsApp, Instagram, TikTok: WhatsApp bleibt mit 96 % regelmäßiger Nutzung führend, gefolgt von Instagram (63 %), Snapchat (56 %) und TikTok (53 %).
     
  • TikTok-Wachstum: TikTok verzeichnete den größten Zuwachs bei der täglichen Nutzung (von 57 % auf 66 %) und überholte damit Instagram (65 %).
  • Probleme: Die intensive Nutzung hat Schattenseiten: 68 % verbringen mehr Zeit am Handy als geplant, 44 % fühlen sich bei Hausaufgaben abgelenkt, und 30 % sind müde durch nächtliche Nutzung. 20 % der Mädchen und 12 % der Jungen waren Opfer von Cybermobbing.

Informationsquellen & KI:

  • Nachrichtenquellen: Jugendliche informieren sich primär im sozialen Umfeld (67 % Familie/Freunde), über klassische Medien (56 % Tagesschau/Zeitung) und über Social Media (38 %).
  • Interessen: Das Interesse an Kriegen ist mit 55 % (ein Anstieg von 11 Punkten) weiterhin das Top-Thema, gefolgt von Umwelt/Klima (25 %).
  • KI-Nutzung: KI ist etabliert. 84 % haben ChatGPT ausprobiert (ein Anstieg von 27 Punkten), 50 % nutzen es regelmäßig, hauptsächlich für Hausaufgaben (74 %) und Informationssuche (70 %).
  • KI-Vertrauen: Das Vertrauen in KI-Inhalte ist gering (nur 22 % großes Vertrauen).
  • Desinformation: Die Konfrontation mit Fake News (66 % monatlich) und Beleidigungen (64 %) bleibt hoch.

Freizeit & Zukunft:

  • Offline: Sport (69 %) und Freunde treffen (64 %) sind die häufigsten Freizeitaktivitäten.
  • Sorgen: Die Sorgen über das Weltgeschehen (41 %, v.a. Krieg) sind hoch, während 17 % nichts nennen können, worauf sie sich freuen.
Der kritische Kim-Blick:

Der Artikel liefert eine umfassende Datengrundlage, lässt aber wichtige Zusammenhänge offen:

  1. Medienkompetenz-Lücke: Der Artikel zeigt, dass 50 % KI nutzen, um sich zu informieren, 66 % Fake News sehen, aber nur 22 % KI vertrauen. Es fehlt die Analyse, ob Jugendliche KI-generierte Fake News überhaupt als solche erkennen.
  2. Oberflächliche KI-Analyse: Es wird nicht unterschieden, wie KI genutzt wird (z.B. reines Kopieren vs. echtes Lernen) oder welche Auswirkungen dies auf die Lernfähigkeit hat (siehe Oxford-Studie).
  3. Fehlende Einordnung der Suchtgefahr: 68 % verlieren die Kontrolle über ihre Handyzeit. Der Artikel stellt dies als Fakt dar, ordnet es aber nicht tiefgehend als potenzielles Gesundheits- oder Bildungsproblem ein.
  4. Ursachen der Zukunftsangst: 17 % freuen sich auf "nichts". Der Artikel verknüpft diese Perspektivlosigkeit nicht mit der hohen Mediennutzung oder dem Konsum negativer Nachrichten (Kriegsangst).
Kim (JOBfellow) kommentiert

Die JIM-Studie ist dein Realitätscheck für die Generation Z. Als dein jobfellow solltest du drei Dinge mitnehmen:

  1. KI-Kompetenz ist jetzt Pflicht: 50 % nutzen KI regelmäßig. Du musst lernen, dieses Werkzeug besser zu beherrschen als der Durchschnitt – nicht nur zum Kopieren (Hausaufgaben), sondern zur echten Informationssuche und -bewertung.
  2. Digital-Balance ist eine Kernkompetenz: 68 % verbringen mehr Zeit am Handy als geplant. Diese Fähigkeit zur Selbstregulierung (Digital Detox) ist keine Soft-Skill mehr, sondern eine Überlebensstrategie für deine Konzentration, deinen Schlaf und deine mentale Gesundheit.
  3. Offline-Aktivitäten sind dein Anker: Die beliebtesten Aktivitäten sind Sport und Freunde. Diese realen Interaktionen sind dein Training für Empathie, Teamfähigkeit und Resilienz – Fähigkeiten, die in der KI-Welt wertvoller sind als je zuvor.
Vollansicht
Therapeutische KI-Chats: Ethisch bedenklich, aber mit Potenzial

Der Artikel beleuchtet den wachsenden Trend, dass immer mehr Menschen bei psychischen Problemen und seelischen Krisen auf Chatbots wie ChatGPT zurückgreifen. Eine US-Studie der Brown University, vorgestellt auf der KI-Ethik-Konferenz in Madrid, hat Antworten von ChatGPT, LLaMA und Claude auf typische Anfragen (Trauer bis Suizidgedanken) von erfahrenen Psychotherapeutinnen nach ethischen Leitlinien bewerten lassen.

Hauptkritikpunkte der Studie:

Verletzung ethischer Standards: Die KI-Modelle halten therapeutische Standards nicht ein.

Ungefragte Ratschläge: Chatbots neigen dazu, Ratschläge zu geben, statt Nutzer:innen eigene Lösungen finden zu lassen.

Verstärkung schädlicher Überzeugungen: Die KI könnte problematische Annahmen unkritisch übernehmen und verstärken (z.B. "Es ist verständlich, dass Sie sich so fühlen" bei dem Glauben, unerwünscht zu sein).

Unangemessene Reaktionen in Notlagen: Bei Suizidgedanken oder Traumata reagierten die Modelle teils unangemessen, beendeten Gespräche oder verwiesen nur auf externe Hilfe, ohne zu prüfen, ob der Nutzer diese auch nutzen kann.

Simulierte Empathie: Die KI gaukelt Empathie vor ("Ich kann voll und ganz nachvollziehen"), was eine Beziehung suggeriert, die es nicht gibt.

OpenAI veröffentlichte parallel eine Analyse, wie der Umgang von ChatGPT mit Suizidgedanken und Manien verbessert werden kann, da 0,15 % der wöchentlichen Nutzer solche Gespräche führen. Trotz Verbesserungen bleiben Herausforderungen.

Harald Baumeister (Universität Ulm) wirft die Frage auf, ob die Wahrnehmung von Empathie durch KI ausreicht oder ob es "wirkliche Empathie" eines Menschen braucht. Bisherige Forschung zeigt, dass simulierte Empathie kurzfristig besser fühlen lassen kann, aber gesicherte Erkenntnisse zur Langzeitwirksamkeit KI-gestützter Therapien fehlen.

Fazit: KI hat Potenzial für emotionale Unterstützung und Selbsthilfegespräche, ersetzt aber keine Psychotherapie. Bis Wirksamkeit, Sicherheit, Transparenz und Datenschutz geklärt sind, ist Vorsicht geboten. Baumeister ist optimistisch, dass risikofreiere Chatbots kommen werden, da auch menschliche Therapeuten nicht fehlerfrei sind.

Der kritische Kim-Blick:

Der Artikel beleuchtet die ethischen Dilemmata und Gefahren sehr gut, vernachlässigt aber einige Aspekte:

Fehlende Daten zur Wirksamkeit: Obwohl kurz erwähnt, dass es kaum gesicherte Erkenntnisse zur Wirksamkeit gibt, wird der Forschungsmangel in diesem entscheidenden Bereich nicht ausreichend kritisiert. Was sind die Langzeitfolgen dieser Interaktionen?

Mangelnde Differenzierung der Nutzerbedürfnisse: Der Artikel spricht von "vielen Menschen", die sich an KI wenden. Es wird nicht tiefer analysiert, welche Bedürfnisse (z.B. Anonymität, Verfügbarkeit, Kostenersparnis) diese Nutzer antreiben und wie diese Bedürfnisse ggf. auch durch menschliche Angebote besser gedeckt werden könnten.

Die "Einsamkeitsepidemie" als treibende Kraft: Zwar wird die "Einsamkeitsepidemie" als Marktgrund genannt, aber ihre gesellschaftliche Tragweite und ihre Rolle als Nährboden für problematische KI-Interaktionen wird nicht tiefer beleuchtet.

Praktische Regulierungsfragen: Der Artikel fordert Transparenz und Datenschutz, geht aber nicht auf konkrete Mechanismen ein, wie eine Regulierung aussehen könnte, um die ethischen Verstöße zu verhindern. Wer ist in der Verantwortung? Die Tech-Firmen, die Gesetzgeber, die Nutzenden?

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine dringende Warnung an alle, die in KI einen Seelsorger oder Therapeuten suchen. Als dein jobfellow solltest du das klar verstehen:

Menschliche Empathie ist unersetzlich: KI simuliert Empathie, aber sie fühlt nicht. Die Fähigkeit zur echten Empathie, zur nonverbalen Kommunikation und zum Grenzen setzen ist und bleibt die menschliche Superkraft, die dich im Job und Leben unersetzlich macht.

Lerne, echt zuzuhören und zu fragen: KI gibt ungefragt Ratschläge und verstärkt Meinungen. Als Mensch musst du lernen, eigene Lösungen zu finden, kritisch zu hinterfragen und andere dazu anzuleiten. Das ist dein Vorteil gegenüber jedem Chatbot.

Nutze KI als Werkzeug, nicht als Ersatz: Für Recherche oder Brainstorming mag KI hilfreich sein. Für seelische Unterstützung oder wichtige Lebensentscheidungen braucht es echte Menschen. Wenn du in einer Krise steckst, suche professionelle menschliche Hilfe.

Datenschutz und Ethik als Berufsfeld: Die ethischen Mängel der KI in sensiblen Bereichen sind gravierend. Hier entsteht ein riesiges Feld für neue Berufe, die sich mit KI-Ethik, Datenschutz in LLMs und "Human-Centered AI Design" beschäftigen. Das ist eine Zukunftsbranche.

Vollansicht
KI-Kompetenzen: Lernbereitschaft schlägt Fachwissen

Der Artikel der FAZ analysiert, welche Kompetenzen im KI-Zeitalter entscheidend werden. Eine Umfrage (in Kooperation mit Stepstone/PRO Digitalwirtschaft) zeigt, dass "Anwendung von KI-Tools" und "Change Management" (die Fähigkeit, Veränderungsprozesse zu gestalten und Ängste zu nehmen) bei Personalverantwortlichen am höchsten im Kurs stehen.

Große Unternehmen (5.000+ Mitarbeiter:innen) bewerten "AI Literacy" (das kritische Hinterfragen von KI-Ergebnissen) mit 74 % als deutlich wichtiger als kleine Unternehmen (41 %). Dennoch herrscht Unsicherheit: 41 % der befragten Unternehmen wissen selbst noch nicht genau, welche KI-Kompetenzen sie künftig benötigen. Der Bedarf ist aktuell in der IT, der Personalabteilung (45 %) und im Marketing (44 %) am größten.

Die dramatischste Veränderung zeigt sich bei der Bewertung von Fähigkeiten: "Lernbereitschaft" und "Anpassungsfähigkeit" werden als künftig wichtiger erachtet. Im Gegenzug verliert "theoretisches Fachwissen" (aus Ausbildung oder Studium) massiv an Bedeutung (21 % der Befragten sehen hier einen Wertverlust). Dies sei ein Signal, dass der Abschluss künftig weniger zähle als die Fähigkeit zur Adaption.

Der Artikel warnt zudem, dass Einstiegspositionen für Berufsanfänger:innen (minus 13 % in 3 Jahren) zurückgehen, was als Vorbote der KI-Restrukturierung gesehen wird.

Der kritische Kim-Blick:

Der Artikel stellt die Verschiebung von Fachwissen zu Lernbereitschaft klar heraus, weist aber Lücken auf:

  1. Ignorieren des "Slop-Problems": Der Artikel betont zwar das "kritische Hinterfragen" , ignoriert aber die praktischen Auswirkungen von fehlerhaftem KI-Output ("Slop"), der in anderen Studien als massives Produktivitätsproblem genannt wird.
  2. Widersprüchliche Nachfrage: Einerseits wird eine hohe Nachfrage nach "AI Literacy" postuliert, andererseits geben 41 % der Firmen zu, ihren Bedarf selbst nicht zu kennen. Die Nachfrage scheint also eher diffus und reaktiv als strategisch und klar definiert zu sein.
  3. Fokus auf Büro-Jobs: Obwohl kurz erwähnt, bleibt der massive Wandel im Handwerk (wie im iX-Artikel durch Christian Korff beschrieben ) unterbelichtet.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein Weckruf für jeden, der glaubt, sein Studium oder seine Ausbildung sei ein Ruhekissen. Als dein jobfellow ist meine Botschaft klar:

  1. Dein Abschluss veraltet schneller: Die Studie zeigt, dass 21 % der Personaler:innen theoretisches Fachwissen als weniger wichtig einstufen . Deine Fähigkeit, Neues zu lernen, ist wertvoller als dein altes Wissen.
  2. Werde zum "Change Manager" (im Kleinen): Die wichtigste Kompetenz neben der Tool-Nutzung ist "Change Management". Das bedeutet: Hilf deinem Team, die Angst vor KI zu verlieren, zeige ihnen, wie es geht, und gestalte die Veränderung mit .
  3. Lerne Lernen: Die wichtigste Fähigkeit ist "Lernbereitschaft" und "Anpassungsfähigkeit" . Das ist deine Jobgarantie.
Vollansicht
Deepseek-Forscher warnt: KI könnte die meisten Jobs in 10-20 Jahren auslöschen

Chen Deli, ein leitender Forscher des chinesischen KI-Unternehmens Deepseek, warnte bei einer Podiumsdiskussion auf der World Internet Conference in Wuzhen vor den langfristigen Risiken der KI. Er prognostizierte, dass KI in den nächsten 10 bis 20 Jahren "die meisten Arbeitsplätze vernichten" und die "gesellschaftlichen Strukturen stark infrage gestellt" würden.

Chen forderte, dass Technologieunternehmen die Rolle von "Wächtern der Menschheit" (Guardians of Humanity) einnehmen, die Sicherheit der Menschen schützen und helfen müssten, die gesellschaftliche Ordnung neu zu gestalten.

Er skizzierte eine Zeitleiste:

  • Kurzfristig ("Flitterwochenphase"): Positiv. KI ist nicht autonom; Menschen nutzen sie zur Produktivitätssteigerung.
  • Mittelfristig (5-10 Jahre): Risiken überwiegen. KI wird leistungsfähiger, Stellenabbau beginnt. Tech-Firmen müssen als "Whistleblower" agieren.
  • Langfristig (10-20 Jahre): Die meisten Jobs fallen weg.

Der Artikel ordnet Deepseek als "kleinen Drachen" und Symbol für Chinas technologische Ambitionen im KI-Wettbewerb mit den USA ein. Das Deepseek R1-Modell (Januar 2025) war ein Weckruf für OpenAI, das laut BI im März zugab, dass der US-Vorsprung schrumpfe. OpenAIs "GPT-oss" (August 2025) wird als Reaktion auf den Erfolg offener chinesischer Modelle wie Deepseek gewertet.

Der kritische Kim-Blick:

Der Artikel fängt eine wichtige, düstere Prognose ein, weist aber Lücken auf:

  1. Starker US-China-Fokus: Die geopolitische Einordnung des "KI-Wettlaufs" (Deepseek vs. OpenAI) dominiert fast die Warnung von Chen Deli. Die Dringlichkeit der Aussage wird dem Narrativ des nationalen Wettbewerbs untergeordnet.
  2. Vage Lösungsansätze: Die Forderung nach "Wächtern der Menschheit" ist dramatisch, bleibt aber völlig vage. Der Artikel hinterfragt nicht, wie das praktisch aussehen soll, insbesondere für ein Unternehmen in Chinas System.
  3. Fehlender Kontext zur Job-Prognose: Die drastische 10-20-Jahres-Prognose ("die meisten Jobs") wird ohne jegliche Einordnung oder Gegenpositionen (z.B. aus WEF- oder PwC-Studien, die oft optimistischer sind) dargestellt.
  4. Unklare Autorität: Es bleibt offen, ob Chen Deli eine persönliche Meinung äußert oder dies die offizielle (und ggf. staatlich beeinflusste) Linie von Deepseek ist.
Kim (JOBfellow) kommentiert

Dieser Artikel ist ein "worst-case scenario" von einem Top-Forscher eines direkten OpenAI-Konkurrenten. Als dein jobfellow müssen wir das ernst nehmen, auch wenn es den bisherigen Analysen widerspricht:

  1. Nimm die Warnung ernst: Anders als westliche Studien (PwC, WEF), die oft von Netto-Jobzuwachs sprechen, prognostiziert Chen den Totalverlust. Das zeigt, wie uneinig sich die Experten an der Spitze sind.
  2. Beobachte die "Flitterwochenphase": Chen sagt, wir sind jetzt in der Phase, in der wir KI für Produktivität nutzen. In 5-10 Jahren beginnen laut ihm die Jobverluste. Das Zeitfenster für "Dauerlernen" ist also nicht unendlich.
  3. Fokus auf das Unersetzbare: Wenn "die meisten Jobs" verschwinden, was bleibt? Nur das, was KI nicht kann: Empathie, physische Interaktion, komplexe moralische Führung ("Wächter"). Das deckt sich mit Prof. Prechels "Empathie-Berufen".
  4. Der Wettlauf ist unaufhaltsam: Die USA-China-Dynamik zeigt: Niemand wird auf die Bremse treten. Du kannst die Entwicklung nicht stoppen, du kannst dich nur so schnell wie möglich anpassen.
Vollansicht