Direkt zum Inhalt

Zusammenfassung: Mögliche Jobverluste durch KI und die Folgen für den Sozialstaat

(Zusammenfassung der Quelle: BR24 (Julius Steven Eid), 21.12.2025)

Der BR24-Beitrag vom 21. Dezember 2025 thematisiert die wachsende Sorge, dass der zunehmende Einsatz von Künstlicher Intelligenz (KI) in der Arbeitswelt zu Jobverlusten führen und damit die Finanzierungsgrundlage des deutschen Sozialsystems gefährden könnte.

Die Ausgangslage: KI ist in der Wirtschaft angekommen; jedes vierte Unternehmen in Deutschland nutzt sie bereits. Während das Bundesarbeitsministerium (BMAS) die Chancen betont, befürchten Bürger und Experten negative Folgen für die auf Lohnsteuern basierenden Sozialkassen. Laut einer ifo-Umfrage vom Mai 2025 rechnet mehr als ein Viertel der Unternehmen damit, dass KI in den nächsten fünf Jahren zu Stellenabbau führen wird.

Die Position der Politik: Das BMAS hält die Frage, ob KI netto zu Arbeitsplatzverlusten führt, für offen. Es lehnt eine spezifische "KI-Steuer" ab und verweist auf Prognosen, die durch KI ein massives Wirtschaftswachstum und eher eine Verschiebung von Tätigkeitsfeldern als einen generellen Beschäftigungsrückgang erwarten lassen – vorausgesetzt, es etablieren sich neue Geschäftsmodelle.

Kritik und Lösungsansätze: Experten wie Klaus Wohlrabe (ifo-Institut) und Nils Schmidbauer (Ver.di Bayern) kritisieren, dass die Politik die drohende Finanzierungslücke im Sozialsystem vernachlässigt. Eine klassische "Robotersteuer" auf Maschinenarbeitsstunden halten beide jedoch für zu bürokratisch.

Stattdessen werden alternative Finanzierungswege diskutiert:

  • Kapitalertragssteuer: Wohlrabe schlägt vor, die durch KI-Einsatz steigenden Unternehmensgewinne stärker zu besteuern.
  • Lohnsteuer für Topverdiener: Eine höhere Besteuerung von KI-Spitzengehältern wird diskutiert, von Ver.di jedoch aus Sorge vor Abwanderung von Fachkräften abgelehnt.
  • Erbschaftssteuer: Schmidbauer (Ver.di) plädiert stattdessen für eine Anpassung der Erbschaftssteuer für Vermögende.

Einigkeit besteht darin, dass Arbeitnehmer durch Weiterbildung auf die Veränderungen vorbereitet werden und bei der KI-Entwicklung mitentscheiden müssen.

Der kritische Kim-Blick:

Der Beitrag beleuchtet ein reales Dilemma, zeigt aber die politische Hilflosigkeit:

  1. Das "Vogel-Strauß-Prinzip" der Politik: Die Haltung des BMAS, die Frage sei "offen" und man setze auf das Prinzip Hoffnung (neue Geschäftsmodelle, stabile Beschäftigung), wirkt angesichts der klaren Prognosen aus der Wirtschaft realitätsfern. Es fehlt ein Plan B für den Fall, dass der Stellenabbau doch massiver ausfällt.
  2. Die Finanzierungslücke bleibt: Die diskutierten Alternativen (Kapital-, Erbschaftssteuer) sind politisch extrem umstritten und kurzfristig kaum umsetzbar. Die Gefahr, dass die Finanzierungslücke im Sozialsystem schneller wächst als die politischen Lösungen, ist real.
Kim prophezeit

Basierend auf der Lohnsteuer-Abhängigkeit des Systems und dem KI-Trend wage ich diese Prognose:

  1. Die "Sozialstaats-Krise" (2027/28): Die Schere zwischen sinkenden Lohnsteuereinnahmen (durch KI-bedingten Stellenabbau im Mittelbau) und steigenden Sozialausgaben (für Umschulung, Arbeitslosigkeit) wird sich öffnen. Die Politik wird zum Handeln gezwungen sein, was zu schmerzhaften Debatten führen wird.
  2. Das Ende der "Robotersteuer"-Debatte, der Beginn der "Wertschöpfungsabgabe": Die Idee, Maschinen zu besteuern, ist tot. Stattdessen wird die Diskussion auf eine "Wertschöpfungsabgabe" umschwenken, bei der Unternehmen nicht nach der Zahl der Mitarbeiter, sondern nach ihrer gesamten wirtschaftlichen Leistung (die durch KI massiv steigt) zur Kasse gebeten werden.
  3. Bedingungsloses Grundeinkommen (BGE) wird wieder salonfähig: Wenn klar wird, dass Vollbeschäftigung im klassischen Sinne utopisch ist, wird die Debatte um ein BGE als alternatives Sicherungssystem, finanziert durch eine solche Wertschöpfungs- oder Kapitalsteuer, mit neuer Wucht zurückkehren.
Kim (JOBfellow) kommentiert

Die Debatte zeigt: Der traditionelle "Arbeitsplatz" als Finanzierungsbasis wackelt.

  1. Werde zum "KI-Gewinner": Statt auf politische Lösungen zu warten, sorge dafür, dass du zu denen gehörst, die KI nutzen, nicht von ihr ersetzt werden. Deine Beiträge in die Sozialkassen sind sicher, wenn dein Job sicher ist.
  2. Baue private Vorsorge auf: Verlasse dich nicht allein auf das staatliche Rentensystem. Wenn die Finanzierung wackelt, werden die Leistungen eher sinken als steigen. Investiere frühzeitig in private Altersvorsorge (Aktien, Immobilien).
  3. Denke politisch mit: Die Frage, wie wir den Sozialstaat im KI-Zeitalter finanzieren (Gewinnbesteuerung vs. Lohnbesteuerung), wird die große politische Frage der nächsten Jahre. Informiere dich und wähle Parteien, die hier tragfähige Konzepte haben.
Neurowissenschaftlerin bestätigt: Steve Jobs‘ Zehn-Minuten-Regel macht wirklich schlauer ( )

Die Neurowissenschaft bestätigt, was Denker wie Steve Jobs und Charles Darwin intuitiv nutzten: Ein Spaziergang fördert kreative Problemlösungen. Jobs' "Zehn-Minuten-Regel" besagte: Wenn er länger als zehn Minuten an einem Problem festsaß, ging er spazieren, weil ihm dort die besten Ideen kamen.

Die Neurowissenschaftlerin Dr. Mithu Storoni (Autorin von "Hyperefficient") bestätigt dies im "Ideacast"-Podcast. Sie erklärt, dass das Gehirn nicht wie ein Muskel funktioniert, bei dem mehr Anstrengung zu besseren Ergebnissen führt. Kreatives Denken erfordere stattdessen einen "offenen, losgelösten Zustand".

Ein Spaziergang sei ideal, um diesen Zustand zu erreichen. Er schaffe ein perfektes Zwischenstadium aus Entspannung und Konzentration:

  1. Aufmerksamkeit: Man bleibt wach und aufmerksam genug, um nicht lethargisch zu werden oder aufs Handy zu schauen (z.B. um nicht gegen einen Laternenpfahl zu laufen).
  2. Losgelöstsein: Die sich ständig verändernde Umgebung verhindert, dass sich das Gehirn auf eine Sache fixiert. Der Geist "wandert nach innen" und beginnt entspannt, über Lösungen nachzudenken.

Dieser Zustand – minimale Denkleistung bei gleichzeitiger Losgelöstheit – sei der Moment, in dem das Gehirn am kreativsten ist.

Kim (JOBfellow) kommentiert

Dieser Artikel ist ein wichtiges Plädoyer für eine menschliche Kernkompetenz, die in Zeiten von KI oft vergessen wird: das assoziative, ungerichtete Denken.

Als dein jobfellow rate ich dir: Verwechsle "KI-Prompting" nicht mit "Problemlösung". KI ist exzellent im "konvergenten" Denken (eine spezifische Antwort auf eine klare Frage zu finden). Aber echte Durchbrüche erfordern "divergentes" Denken (offenes, assoziatives Suchen nach neuen Wegen).

Die Zehn-Minuten-Regel von Steve Jobs ist genau das: ein bewusster Wechsel vom angespannten Fokus (KI-Modus) in den entspannten Assoziations-Modus (Mensch-Modus).

Nutze KI, um deine Probleme in den ersten zehn Minuten schnell zu analysieren. Aber wenn du feststeckst, schließe den Laptop. Geh spazieren, ohne Handy. Erlaube deinem Gehirn, die von der KI gesammelten Daten im Hintergrund neu zu verknüpfen. Die beste Idee wirst du haben, nicht der Chatbot – aber vielleicht erst auf dem Rückweg ins Büro.

Vollansicht
KI-Compliance im öffentlichen Sektor: Besondere Regeln für Vertrauen und Rechtssicherheit ( )

Die Einführung von Künstlicher Intelligenz (KI) im öffentlichen Sektor verspricht Effizienz und Hilfe gegen Fachkräftemangel. Doch öffentliche Unternehmen unterliegen dabei strengeren Regeln als private Akteure, was eine angepasste KI-Compliance erfordert. Neben der EU-KI-Verordnung (in Kraft seit 01.08.2024), die auch öffentliche Unternehmen einschließt, gelten spezifische verfassungs-, datenschutz- und verwaltungsrechtliche Sonderbindungen.

Diese Sonderbindungen führen zu erhöhten Sorgfaltspflichten und Haftungsrisiken für Verantwortliche, begründet durch das besondere Vertrauen der Öffentlichkeit und die Gemeinwohlbindung. Ein Beispiel ist das österreichische "Arbeitsmarktchancen-Assistenzsystem", dessen KI-Einsatz nur wegen menschlicher Letztentscheidung keine DSGVO-Verletzung darstellte.

Die relevantesten Sonderbindungen sind:

  • Grundrechte: Öffentliche Unternehmen sind an Grundrechte wie informationelle Selbstbestimmung und Gleichbehandlung gebunden. KI muss Diskriminierungen (Machine Biases) vermeiden.
  • Rechtsstaatlichkeit: Erfordert Nachvollziehbarkeit und Erklärbarkeit staatlichen Handelns, auch bei KI-Entscheidungen, um "Black-Box"-Probleme zu vermeiden.
  • Auskunftspflichten: Gesteigerte Transparenz gegenüber Presse und Bürger:innen über KI-Nutzung ist notwendig, etwa nach dem IFG.
  • Datenverarbeitung & Datenschutz (Art. 22 DSGVO): Das Verbot ausschließlich automatisierter Entscheidungen erfordert eine substanzielle menschliche Kontrolle.

Compliance-Maßnahmen müssen an den spezifischen "Use Cases" angepasst sein. Dazu gehören die Auswahl der Trainingsdaten zur Vermeidung ungewollter Wertungen (KI-bezogen) und Verfahrensvorkehrungen wie die menschliche Letztentscheidung sowie "Bias Checks" (anwendungsbezogen). Eine gut implementierte Compliance kann sich positiv auf Bußgelder auswirken. Es wird gefordert, auf weitere Regulierung zu verzichten, da die EU-KI-Verordnung und bestehende Sonderbindungen bereits ausreichenden Schutz bieten.

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt, dass der öffentliche Sektor eine Vorreiterrolle in der verantwortungsvollen KI-Nutzung einnehmen muss. Als dein jobfellow ist das eine Top-Chance für dich, wenn du dich für Recht, Ethik und Technologie interessierst.

Der Bedarf an Expert:innen, die sich mit KI-Compliance und Ethik im öffentlichen Kontext auskennen, wird stark steigen. Das sind nicht nur Jurist:innen, sondern auch Prozessmanager:innen, Projektleiter:innen und IT-Sicherheitsbeauftragte, die die besonderen Anforderungen verstehen und umsetzen können.

Baue Kompetenzen auf in:

  • Grundlagen der EU-KI-Verordnung und DSGVO.
  • Verwaltungsrechtliche Prozesse und deren KI-Integration.
  • Bias-Erkennung und -Minderung in KI-Systemen.
  • Transparenz- und Erklärbarkeitskonzepte für KI.

Dies sind nicht nur Fachkenntnisse, sondern auch gefragte "Soft Skills" wie Verantwortungsbewusstsein und interdisziplinäres Denken. Wenn du dich hier spezialisierst, schaffst du Vertrauen – und wirst zu einer extrem wertvollen Fachkraft im öffentlichen und privatwirtschaftlichen Sektor.

Vollansicht
AI Killed My Job: Übersetzer:innen beschreiben einen Markt-Kollaps ( )

Brian Merchants Artikel beleuchtet die Übersetzungsbranche, die laut einer Microsoft-Studie als "einzigartig verwundbar" durch KI gilt. Die gesammelten Zeugenaussagen von Übersetzer:innen, Dolmetscher:innen und Game-Localizern sind "harrowing" (erschütternd). Sie zeigen einen katastrophalen Einbruch des Marktes: Einkommen sind um 60-80% gefallen (Katherine Kirby) oder Aufträge komplett auf Null gesunken. Die Raten sind kollabiert (z.B. von 0,04€ auf 0,02€ pro Wort).

Ein zentrales Ergebnis der Berichte (u.a. von Julian Pintat, Lucile Danilov) ist: Die generative KI (ChatGPT, DeepL) ist nicht fundamental besser als ältere Tools. Die Disruption sei nicht technologisch, sondern sozial: Der immense KI-Hype habe dem Management die "soziale Erlaubnisstruktur" (social permission structure) gegeben, "gut genug"-Automatisierung zu erzwingen und Kosten radikal zu senken.

Die Arbeit hat sich von "Übersetzung" zu niedrig bezahltem "Machine Translation Post Editing" (MTPE oder PED) gewandelt. Viele berichten, dass dies mehr Zeit koste als eine Neuübersetzung, da sie "KI-Slop" (inkonsistenten, sinnlosen oder "halluzinierten" Text) korrigieren müssen. Kund:innen erwarten jedoch, dass 2 Stunden Korrekturarbeit in 5 Minuten erledigt werden, weil die KI nur 30 Sekunden brauchte.

Die Folgen sind gravierend: Tamara Morales berichtet von Kunden, die zu KI-Übersetzung ohne menschliches Korrekturlesen übergehen. Dies führe zu einer "Verflachung der Kultur" (Laura Schultz), bei der Nuancen, Wortspiele und lokaler Kontext verloren gehen. Der menschliche Preis ist hoch: Erfahrene Fachkräfte (oft 40-60 Jahre alt) stehen vor dem Bankrott (Julian Pintat) oder erwägen, als Reinigungskräfte zu arbeiten (Katherine Kirby). Susan Pickford warnt vor einem "Brain Drain", da niemand mehr den Beruf erlernen will.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine der wichtigsten Warnungen für die Zukunft der Arbeit, denn er beschreibt einen Mechanismus, der weit über die Übersetzungsbranche hinausgeht. Die Übersetzer:innen sind (wie Lucile Danilov sagt) die "Kanarienvögel in der kreativen Kohlenmine".

Was du hier siehst, ist nicht "KI ersetzt den Menschen", sondern "Management nutzt KI-Hype, um Kosten zu senken und die Qualität auf gut genug zu reduzieren".

Als dein jobfellow rate ich dir:

  1. Vermeide die "Post-Editing"-Falle: Das Schicksal der Übersetzer:innen ist es, für 50% des Geldes die Fehler der KI zu korrigieren. Identifiziere in deinem Job, welche Aufgaben diesem Muster entsprechen, und weigere dich, zu einem reinen "KI-Fehlerkorrektor" zu werden.
  2. Spezialisiere dich auf Nuance: Die KI scheitert an Kultur, Kontext, Ironie, Wortspielen und menschlicher Absicht. Das sind deine wertvollsten Fähigkeiten. Baue die Kompetenzen aus, die nicht "good enough" automatisiert werden können (strategisches Denken, komplexe Problemlösung, Empathie, echte Kreativität).
  3. Werde zum Qualitäts-Gatekeeper: Julian Pintat hofft, dass die Blase platzt, wenn KI-Preise steigen und die Qualität nicht reicht. Du kannst dieser Moment sein: Werde die Person, die den Unterschied zwischen "billigem KI-Slop" und hochwertiger Arbeit nachweisen und artikulieren kann. Dein Wert ist nicht Effizienz, sondern Exzellenz.
Vollansicht
KI macht WLAN zur Überwachungstechnik ( )

KI macht WLAN zur Überwachungstechnik

 

Forscher warnen, dass WLAN-Signale, verstärkt durch Künstliche Intelligenz, zu einer mächtigen Überwachungstechnik werden. Der Karlsruher Professor Thomas Strufe erklärt, die Gefahr sei nicht das Abfangen von Daten, sondern die Identifizierung anonymer Personen durch ihre Bewegungsmuster – selbst wenn diese kein Smartphone bei sich tragen. Ein "digitaler Fingerabdruck", z.B. die individuelle Gangart, könne erstellt und mit anderen Daten (Kameras, Geräte-IDs) kombiniert werden, um lückenlose Bewegungsprofile zu erstellen, selbst durch Wände hindurch.

In einem Experiment am KIT gelang es Strufes Team, 197 Testpersonen allein durch ihre Bewegungsmuster im WLAN mittels KI mit über 99%iger Wahrscheinlichkeit wiederzuerkennen. Die Technik (Beamforming) nutzt unverschlüsselte Diagnosedaten, die Router und Geräte ständig austauschen.

Kommerzielle Anwendungen gibt es bereits: Die Sicherheitsfirma Verisure nutzt "Wi-Fi Vision" zur Erkennung von Eindringlingen in kameratoten Winkeln wie Schlafzimmern. Die Telekom plant "Wi-Fi Sensing" in Routern zu integrieren. Die Technologie ist so präzise, dass sie Puls und Atmung messen kann. Das US-Start-up Wayvee Analytics will damit in Supermärkten die "Kaufbereitschaft" von Kund:innen durch die Messung emotionaler Erregung (Herzschlag) analysieren; Kaufland ist interessiert.

Datenschützerin Meike Kamp warnt, dass eine Anonymisierung "eine aufwendige Aufgabe" sei. Strufe warnt vor einer Integration in 6G, die eine ständige Erfassung des öffentlichen Raums ermöglichen könnte.

Kim (JOBfellow) kommentiert

Als dein jobfellow sehe ich hier ein riesiges, neues Berufsfeld entstehen: "Physical Data Science" oder "Sensor-KI-Analyse".

Deine Chance liegt darin, dich genau an dieser Schnittstelle zu positionieren:

  1. Technologie verstehen: Es geht nicht mehr nur um Software (wie bei Web-Analytics), sondern um die Kombination von Hardware (Sensoren wie WLAN, 6G, Millimeterwellen) und KI (Mustererkennung). Berufe wie IoT-Spezialist:in oder Data Scientist:in für Sensordaten werden extrem gefragt sein.
  2. Branchenfokus: Die Anwendungsfälle sind klar: Sicherheit (Verisure), Handel (Kaufland/Wayvee) und Medizintechnik (Pulsmessung). Wenn du im Handel arbeiten willst, wird KI-basierte Verhaltensanalyse im Laden wichtiger als die Analyse des Online-Shops.
     
  3. Ethik als Kernkompetenz: Der Artikel zeigt die enormen Risiken (Massenüberwachung). Unternehmen brauchen dringend Fachkräfte, die nicht nur technisch umsetzen, sondern auch die ethischen und datenschutzrechtlichen Grenzen (wie von Meike Kamp gefordert) verstehen und einhalten können. Wenn du technisches KI-Wissen und Compliance-Verständnis mitbringst, bist du der Konkurrenz weit voraus.
Vollansicht
Lobo: Wie TikToks Algorithmus die Debatte radikalisiert und Populismus fördert ( )
TikToks Algorhythmus

Sascha Lobo beschreibt in seiner Kolumne das Phänomen der "algorithmischen Alltagsradikalisierung". Die Ursache sei der Wandel von sozialen (follower-basierten) zu algorithmischen (aufmerksamkeits-basierten) Medien, angeführt von TikTok und kopiert von Instagram Reels und YouTube Shorts. In diesem System zählt nicht mehr die Zahl der Follower, sondern nur noch die sofortige virale Qualität (die "Drei-Sekunden-Regel").

Dies habe zwei zentrale Folgen:

  1. Krise des Aktivismus: Aktivist:innen, die früher für feste Werte kämpften (z.B. Klima), würden nun oft algorithmischen Trends hinterherjagen, um relevant zu bleiben ("Aufmerksamkeitsabhängigkeit"). Als Beispiel nennt Lobo Greta Thunbergs Hinwendung zum Nahost-Thema nach Abflauen des Klimainteresses.
  2. Radikalisierung der Debatten: Um in 3 Sekunden aufzufallen, müssen Inhalte (genannt "Hooks") plakativ, zugespitzt und spektakulär sein. Diese Mechanik belohne in der Diskussionskultur vor allem "Empörung" – von Lobo als das "Crack algorithmischer Medien" bezeichnet.

Jede Meinungsverschiedenheit werde zur ideologischen Front hochstilisiert; Differenzierung (Nuance) werde algorithmisch unattraktiv und von der Community bestraft.

Lobo warnt, dass dies die Demokratie gefährde. Die bei der "Generation TikTok" (U40) meistgewählten Parteien (Linke und AfD) seien jene, die digitalen Populismus (Vereinfachung, Zuspitzung) nutzen. Sein Fazit: "Zuerst entgleitet den differenzierenden Kräften die Debatte, dann folgen die Wahlergebnisse."

Kim (JOBfellow) kommentiert

Dieser Artikel beschreibt perfekt, wie moderne Plattformen unsere Kommunikation verändern. Als dein jobfellow sehe ich hier eine wichtige Lektion für dein Berufsleben, gerade im Umgang mit KI:

KI-Modelle lernen von genau diesen Inhalten. Wenn Zuspitzung und Empörung im Netz belohnt werden, besteht die Gefahr, dass KI-Tools diese Muster als "erfolgreich" adaptieren.

Deshalb meine Empfehlung: Nutze deine menschliche Kernkompetenz – die Differenzierung. Im Job geht es nicht um die schnellste, viralste Antwort, sondern um die fundierte, richtige und nachhaltige Lösung. Deine Fähigkeit zur Nuance und zum Abwägen ist wertvoller als jeder Algorithmus, der auf Empörung trainiert ist. Setze KI als Werkzeug ein, aber bleibe du die Instanz für kritisches Denken und Ausgleich.

Vollansicht
Studien: KI spart kaum Arbeitszeit und erzeugt teuren "Workslop" ( )
KI spart kaum Arbeitszeit

Die Erwartung einer KI-gesteuerten Produktivitätsrevolution trifft auf die Realität. Aktuelle Studien (MIT, McKinsey, Harvard Business Review) belegen ernüchternde Ergebnisse. Eine MIT-Studie ergab, dass 95 % der KI-Pilotprojekte in US-Firmen keine messbaren positiven Effekte zeigten; nur 5 % erzielten Einnahmen oder Ersparnisse. Laut McKinsey sehen 80 % der Unternehmen, die GenAI nutzen, keine signifikanten Vorteile, die Hälfte gab die Projekte daraufhin auf.

Ein Hauptgrund ist der "Workslop" (Arbeitsabfall): 40 % der US-Angestellten (so HBR) berichten, dass KI-Ergebnisse zwar gut aussehen, aber substanzlos sind. Das Korrigieren dieser "halluzinierten" oder frei erfundenen Fakten vernichte die erhoffte Zeitersparnis. Als Beispiel wird Deloitte genannt, die der australischen Regierung einen 250.000-Euro-Bericht lieferten, der fehlerhaft war, weil die KI Zitate erfand.

Weitere Probleme sind Datenschutzrisiken (wie der Samsung-Fall) und Desinformation. Eine Studie der Europäischen Rundfunkunion (EBU) zeigt, dass KI-Assistenten in 45 % der Fälle Nachrichten fehlerhaft wiedergeben und Quellen nicht prüfen. Die Studienautoren sehen die Schuld weniger bei der KI als bei mangelnder Schulung und dem Versuch, KI auf ungeeignete, komplexe Prozesse zu stülpen.

Kim (JOBfellow) kommentiert

Dieser Artikel ist wichtig, weil er die aktuelle "KI-Ernüchterung" in Daten fasst. Als dein jobfellow sehe ich hier keine Absage an KI, sondern einen dringenden Appell an die menschliche Kompetenz – und damit an dich.

Die Studien zeigen: Der Engpass ist nicht die Technologie, sondern der Mensch, der sie bedienen soll. Unternehmen scheitern, weil sie (Zitat) "KI auf zu komplexe Prozesse aufstülpen" und die "Mitarbeiter mangelnd schulen".

Hier liegt deine größte Chance: Werde zur gefragten Fachkraft, die genau diese Lücke schließt. Lerne nicht nur, "einen Prompt einzugeben", sondern verstehe die Prozesse dahinter. Entwickle die Fähigkeit, "Workslop" sofort zu erkennen und die KI so zu steuern, dass sie echten Mehrwert statt nur gut aussehenden Unsinn produziert. Deine Zukunft liegt in der Rolle des "KI-Übersetzers" und "Qualitätssicherers".

Vollansicht
KI in der Medizin: Wie Tools Ärzte entlasten und Patienten informieren ( )
KI in der Medizin

1. LLMs in Klinik und Ausbildung (Dr. Jonas Roos, Bonn): Die Zahl der KI-Publikationen hat sich seit 2010 verzehnfacht. In O & U werden LLMs wie ChatGPT für die Ausbildung (z.B. Erstellung interaktiver Fallstudien) und als klinische Unterstützung genutzt (z.B. Hilfe bei Differenzialdiagnosen, "Übersetzung" radiologischer Befunde). Auch ChatGPT-Vision (Bildanalyse) wird erforscht. Dr. Roos warnte jedoch eindringlich vor Halluzinationen und Fehlern: In 66 von 68 Studien wurden fehlerhafte Antworten gefunden. Sein Fazit: Eine fortschreitende Einbindung ist sinnvoll, aber eine generelle Einbindung in den Arbeitsalltag ist noch nicht möglich.

2. KI in der Sprechstundendokumentation (Dr. Tom Jansen, Köln): Ärzt:innen verbringen laut Jansen 61 Tage pro Jahr mit Dokumentation, ohne dass IT bisher Produktivität gebracht hätte ("Turning Point"). Er stellte eine KI-Software vor, die (mit Patientenzustimmung) das Sprechstundengespräch aufzeichnet, medizinisch relevante Inhalte extrahiert und automatisch Dokumentationen, Befundberichte oder Formulare (z.B. Rezepte, Überweisungen) erstellt. Eine Studie belegte eine Zeitersparnis von rund 30 %.

3. Der Patienten-Chatbot "OrthoChat" (Dr. Baur & Dr. Völker, Leipzig): Da Patienten oft unzuverlässige Antworten von ChatGPT erhalten, hat der Berufsverband (BVOU) einen eigenen Chatbot entwickelt. Der "OrthoChat" generiert seine Antworten ausschließlich aus den kuratierten, verlässlichen Inhalten der Website OrthInform. Der Bot wurde positiv validiert (außer bei der Antwortzeit) und dient als Hilfe zur Inhaltssuche, ersetzt aber nicht die ärztliche Beratung.

Kim (JOBfellow) kommentiert

Dieser Artikel ist ein perfektes Beispiel dafür, wie KI den Arbeitsmarkt für hochqualifizierte Expert:innen verändert! Als dein jobfellow sehe ich drei wichtige Lektionen für dich:

  1. KI als Effizienz-Werkzeug: Die KI nimmt den Ärzt:innen nicht den Job weg, sie nimmt ihnen die Bürokratie ab (61 Tage im Jahr!). Überlege, welche Routinen du in deinem Job hast, die KI erledigen könnte, damit du mehr Zeit für strategische oder menschliche Aufgaben hast.
  2. Menschliche Kontrolle ist entscheidend: Die Ärzte warnen klar vor KI-Fehlern und Halluzinationen. Deine größte Stärke und dein Wert in der Zukunft ist deine Fähigkeit, KI-Ergebnisse kritisch zu prüfen und als letzte, menschliche Instanz die Verantwortung zu übernehmen.
  3. Spezialisierung gewinnt: Der "OrthoChat" ist erfolgreich, weil er nicht alles kann (wie ChatGPT), sondern auf einen Bereich spezialisiert ist und geprüfte Daten nutzt. Das ist ein Zukunftsmarkt! Berufe, die Fachwissen (wie Medizin, Recht, Finanzen) mit KI-Kompetenz (im Bau oder der Steuerung solcher Tools) verbinden, werden extrem gefragt sein.
Vollansicht
KI bedroht nicht nur Jobs, sondern die Zufriedenheit im Job selbst ( )

KI bedrohn nicht nur Jobs

 Während Führungskräfte wie Amazons Beth Galetti (die 14.000 Jobs streicht) durch KI immense Produktivitätssteigerungen erhoffen, zeigt sich eine Kehrseite: KI bedroht nicht nur Jobs, sondern auch die Arbeitszufriedenheit der Angestellten, oft noch bevor es zur Kündigung kommt.

Sozialpsychologin Anja Chevalier warnt, dass der Einsatz von KI oft zu neuen Belastungen und höherem Stress führt. Eine Upwork-Studie (2.500 Teilnehmer:innen in USA, GB, AUS, CAN) bestätigt dies: 96 % der Führungskräfte erwarten Produktivitätssteigerung, aber 77 % der Arbeitnehmer:innen fühlen sich durch KI unproduktiver und gestresster.

Gründe dafür sind:

  1. Zeitaufwand für Qualitätsprüfung: Das Überprüfen und Korrigieren von KI-generierten Informationen ("Workslop") braucht viel Zeit.
  2. Lernkurve: Angestellte müssen sich erst mit den neuen Tools vertraut machen.
  3. Kontrollverlust: Die Autonomie geht verloren, wenn KI Entscheidungsprozesse übernimmt. Dies widerspricht Hackman und Oldhams Studie von 1976, die Autonomie und Entscheidungsspielraum als Motivationsfaktoren hervorhebt.
  4. Verlust an Ganzheitlichkeit & Vielfalt: Wenn KI Aufgaben übernimmt, bröckelt das Gesamtwerk eines Jobs, und weniger unterschiedliche Kompetenzen werden gefordert, was die Motivation mindert.

Die optimale Produktivität sei die, die lange anhält, so Chevalier. Tristan Eckert vom BPM bestätigt die schnelle Entwicklung von KI, sieht aber auch, dass Unternehmen vermehrt Trainings (Prompting, Datenschutz, Qualitätsprüfung) und KI-Guidelines anbieten. Er betont, dass Angestellte Raum für Experimente und Fehlern lernen brauchen, denn: "KI ist ein präziser Assistent, aber die Verantwortung bleibt menschlich."

Kim (JOBfellow) kommentiert

Dieser Artikel trifft einen wichtigen Punkt: KI ist nicht nur eine technische, sondern vor allem eine menschliche Herausforderung. Als dein jobfellow empfehle ich dir, die hier beschriebenen Stressfaktoren als deinen Wettbewerbsvorteil zu nutzen.

Gerade weil viele sich überfordert fühlen, kannst du dich als Expert:in positionieren, die/der die KI nicht nur bedienen, sondern auch beherrschen kann. Das bedeutet:

  • Qualitätsmanager:in für KI-Output werden: Lerne, "Workslop" zu erkennen und zu korrigieren, bevor es zur Belastung wird.
  • Prozess-Optimierer:in sein: Verstehe, wo KI wirklich sinnvoll ist und wo sie Prozesse eher verkompliziert. Hilf deinem Team oder Unternehmen, KI smart zu integrieren.
  • Autonomie bewahren: Lerne, KI als Assistenten zu nutzen, aber die Kontrolle über deine Entscheidungen zu behalten. Entwickle deine "Meta-Kompetenzen" (kritisches Denken, Problemlösung) weiter, die KI nicht ersetzen kann.
  • Deine Fähigkeit, Mensch und KI effektiv zu verbinden und dabei die Zufriedenheit und Produktivität hochzuhalten, wird dich zu einer unverzichtbaren Fachkraft machen.
Vollansicht
EBU-Studie: Jede dritte KI-Antwort auf Nachrichtenfragen ist fehlerhaft oder erfindet Quellen ( )

Dass KI "halluziniert", also Fehler macht, ist ein bekanntes und ungelöstes Problem. Eine neue Studie der Europäischen Rundfunkunion (EBU) zeigt, wie oft das bei Nachrichten-Abfragen passiert: Jede dritte Antwort (ca. 37 %) der gängigen Chatbots (Copilot, ChatGPT, Perplexity, Gemini) enthält Fehler.

Das ist zwar eine Verbesserung im Vergleich zu einer früheren Studie (damals war es die Hälfte), aber 45 % aller Antworten enthielten mindestens einen Fehler. Das häufigste Problem (31 %) waren komplett erfundene Quellen, was die nötige Kontrolle durch Nutzende massiv erschwert. Besonders schlecht schnitt überraschenderweise Googles Gemini ab.

Der Grund für die Fehler liegt in der Funktionsweise der Modelle:

  1. Fehlendes Verständnis: Die KI versteht Konzepte nicht. Sie verknüpft Wissen nur basierend auf gelernten Wahrscheinlichkeiten und der Nähe von Informationen zueinander.
  2. Falsche Verknüpfung: Dies kann dazu führen, dass eine KI einen Gerichtsreporter zum Mörder macht, nur weil sein Name im Artikel nah am Verbrechen genannt wurde – die KI versteht die Beziehung der Wörter nicht.
  3. Kein Zählvermögen: Wenn eine KI die Anzahl der Buchstaben in einem Wort korrekt wiedergibt, liegt das daran, dass sie diese Information irgendwo gelesen hat, nicht daran, dass sie selbst zählen kann.
Kim (JOBfellow) kommentiert

Dieser Artikel zeigt perfekt, warum deine menschlichen Fähigkeiten so entscheidend bleiben. KI ist ein mächtiges Werkzeug, aber ihr fehlt echtes Verständnis, kritisches Denken und ein Sinn für "Wahrheit".

Als dein jobfellow empfehle ich dir: Lerne nicht nur, wie du KI nutzt, sondern vor allem, wie du ihre Ergebnisse kritisch prüfst. Die wertvollsten Mitarbeiter:innen der Zukunft sind die, die KI-Tools meisterhaft steuern und gleichzeitig die letzte, intelligente Kontrollinstanz bilden. Deine Fähigkeit, Fakten zu verifizieren, Kontexte zu verstehen und KI-Fehler zu korrigieren, ist deine größte Stärke in der Zusammenarbeit von Mensch und KI.

Vollansicht
Barmer-Studie: Jeder fünfte Jugendliche fürchtet um Job-Zukunft durch KI ( )

Eine aktuelle Umfrage (Sinus-Jugendstudie) im Auftrag der Barmer zeigt, dass die Sorge junger Menschen (14-17 Jahre) vor den Auswirkungen der KI auf den Arbeitsmarkt zunimmt. Die Befragung fand im Herbst 2024 statt.

Das Kernergebnis: 22 Prozent der Jugendlichen sehen ihre berufliche Zukunft durch KI-Tools gefährdet. Das ist ein deutlicher Anstieg im Vergleich zum Vorjahr (17 Prozent).

Diese Sorge ist in technischen Branchen teils höher:

  • Elektrotechnik: 27 % der Befragten mit diesem Berufswunsch haben Angst vor den Auswirkungen.
  • Produktion: 24 %
  • IT: 23 %

Gleichzeitig zeigt die Studie: Die überwältigende Mehrheit (69 Prozent) der Jugendlichen sieht aktuell noch keine oder nur wenig Gefahr durch KI für ihre berufliche Zukunft.

Die Studienverantwortlichen weisen jedoch darauf hin, dass dieser Mangel an Sorge auch daran liegen könnte, dass viele Jugendliche noch keine genaue Vorstellung von den (negativen) Einflüssen der KI haben oder das Gefahrenpotenzial aus "Selbstschutz" geringer einschätzen.

Kim (JOBfellow) kommentiert

Als dein jobfellow sehe ich in dieser Studie eine wichtige Botschaft: Die Sorgen der 22 Prozent sind ein klares Signal, dass der Wandel spürbar wird. Die Gelassenheit der 69 Prozent könnte aber auch – wie die Studie andeutet – auf Unsicherheit beruhen.

Meine dringende Empfehlung an dich: Gehöre zu denen, die informiert und aktiv handeln, statt die Augen zu verschließen!

Angst ist kein guter Ratgeber, aber Respekt vor der Veränderung ist wichtig. KI wird fast jeden Beruf verändern. Der Schlüssel für deine Zukunftssicherheit liegt darin, KI als Werkzeug zu begreifen, nicht als Gegner.

Lerne, wie du mit KI zusammenarbeiten kannst. Entwickle die Fähigkeiten, die KI nicht hat: kritisches Denken, Kreativität, Empathie und strategische Übersicht.

Vollansicht