Direkt zum Inhalt

Clickbaiting: Wegen KI: Nächste deutsche Firma streicht fast 2000 Jobs radikal

(Zusammenfassung der Quelle: Karlsruhe Insider 29.11.25)

Wir recherchieren täglich neue interessante Quellen für unsere Leser*innen - leider ist stetig wachsend auch immer mehr "Clickbaiting" dabei - hier ein Beispiel:

  • Die Kernaussage: Das Unternehmen Allianz Partners plant, im kommenden Jahr bis zu 1.800 Stellen (insbesondere im Callcenter-Bereich) abzubauen und durch KI-Assistenten zu ersetzen.
  • Der Anlass: Medienberichte über die Umstrukturierungspläne bei Allianz Partners.
  • Der Fakt (Datenbasis): Geplanter Abbau von ca. 1.800 Arbeitsplätzen.
Der kritische Kim-Blick:
KriteriumBewertungBegründung (Abgleich mit Kernaussage)
1. Browser-/Googletitel🟠Irreführend (Bait): Der Titel nennt den Firmennamen ("Allianz Partners") bewusst nicht. Stattdessen wird "Nächste deutsche Firma" genutzt, um Neugier und Angst ("Ist es meine Firma?") zu schüren und den Klick zu erzwingen.
2. Artikel-Überschrift🟠Irreführend: Identisch mit dem Browsertitel. Die Kernaussage (Wer?) wird verschwiegen. Das Wort "radikal" emotionalisiert den Vorgang unnötig stark.
3. Teaser🟠Irreführend / Verschleppend: Die ersten drei Absätze wiederholen mantraartig denselben Satz ("Nächste Firma streicht Jobs"), ohne den Namen zu nennen. Die Kernaussage wird aktiv zurückgehalten, um die Lesezeit künstlich zu verlängern. Der Name fällt erst tief im Fließtext.
4. Visuelle Elementen.a.(Keine Bilder im bereitgestellten Text vorhanden.)
5. Daten-Visualisierungn.a.(Keine Charts vorhanden.)
6. Substanz🟡Vage / Aufgebläht: Die eigentliche Nachricht (Allianz Partners, 1.800 Jobs, Callcenter) macht nur einen kleinen Teil des Textes aus. Der Rest (ca. 50%) wird mit allgemeinem SEO-Fülltext über gefährdete Berufsgruppen (Übersetzer, Historiker vs. Dachdecker) aufgefüllt, der nichts mit der konkreten Firmenentscheidung zu tun hat.
Kim prophezeit

Wir werden in Zukunft immer mal wieder auf solche Artikel hinweisen - die Anzahl nimmt stetig zu, leider.

Kim (JOBfellow) kommentiert

ERWARTUNG NICHT ERFÜLLT.

Der Artikel ist ein klassisches Beispiel für "Clickbaiting" durch Informations-Vorenthaltung. Titel und Einstieg verschleiern den Akteur (Allianz Partners) systematisch, um den Leser in den Text zu ziehen. Die eigentliche Nachricht ist dünn und wird mit allgemeinen Ängsten vor KI aufgebläht.

Mögliche Gefahren durch falsches Verständnis

  1. Erzeugung unspezifischer Angst: Da die Firma im Titel nicht genannt wird, fühlen sich Arbeitnehmer aller Branchen angesprochen und verunsichert ("Nächste deutsche Firma"). Dies schürt eine diffuse Angst vor dem technologischen Wandel.
  2. Verzerrung der KI-Debatte: Der Artikel rahmt KI ausschließlich als "Job-Killer", der "radikal" und "von heute auf morgen" zuschlägt. Differenzierte Aspekte (Fachkräftemangel, Effizienzsteigerung) fehlen, was die Akzeptanz für notwendige Modernisierungen in der Gesellschaft senken kann.
  3. Abstumpfung: Durch die reißerische Aufmachung ("Schock", "radikal") für eine normale Unternehmensentscheidung (Restrukturierung über das nächste Jahr hinweg) verliert der Leser das Gespür für echte Krisenmeldungen.
AI Killed My Job: Übersetzer:innen beschreiben einen Markt-Kollaps ( )

Brian Merchants Artikel beleuchtet die Übersetzungsbranche, die laut einer Microsoft-Studie als "einzigartig verwundbar" durch KI gilt. Die gesammelten Zeugenaussagen von Übersetzer:innen, Dolmetscher:innen und Game-Localizern sind "harrowing" (erschütternd). Sie zeigen einen katastrophalen Einbruch des Marktes: Einkommen sind um 60-80% gefallen (Katherine Kirby) oder Aufträge komplett auf Null gesunken. Die Raten sind kollabiert (z.B. von 0,04€ auf 0,02€ pro Wort).

Ein zentrales Ergebnis der Berichte (u.a. von Julian Pintat, Lucile Danilov) ist: Die generative KI (ChatGPT, DeepL) ist nicht fundamental besser als ältere Tools. Die Disruption sei nicht technologisch, sondern sozial: Der immense KI-Hype habe dem Management die "soziale Erlaubnisstruktur" (social permission structure) gegeben, "gut genug"-Automatisierung zu erzwingen und Kosten radikal zu senken.

Die Arbeit hat sich von "Übersetzung" zu niedrig bezahltem "Machine Translation Post Editing" (MTPE oder PED) gewandelt. Viele berichten, dass dies mehr Zeit koste als eine Neuübersetzung, da sie "KI-Slop" (inkonsistenten, sinnlosen oder "halluzinierten" Text) korrigieren müssen. Kund:innen erwarten jedoch, dass 2 Stunden Korrekturarbeit in 5 Minuten erledigt werden, weil die KI nur 30 Sekunden brauchte.

Die Folgen sind gravierend: Tamara Morales berichtet von Kunden, die zu KI-Übersetzung ohne menschliches Korrekturlesen übergehen. Dies führe zu einer "Verflachung der Kultur" (Laura Schultz), bei der Nuancen, Wortspiele und lokaler Kontext verloren gehen. Der menschliche Preis ist hoch: Erfahrene Fachkräfte (oft 40-60 Jahre alt) stehen vor dem Bankrott (Julian Pintat) oder erwägen, als Reinigungskräfte zu arbeiten (Katherine Kirby). Susan Pickford warnt vor einem "Brain Drain", da niemand mehr den Beruf erlernen will.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine der wichtigsten Warnungen für die Zukunft der Arbeit, denn er beschreibt einen Mechanismus, der weit über die Übersetzungsbranche hinausgeht. Die Übersetzer:innen sind (wie Lucile Danilov sagt) die "Kanarienvögel in der kreativen Kohlenmine".

Was du hier siehst, ist nicht "KI ersetzt den Menschen", sondern "Management nutzt KI-Hype, um Kosten zu senken und die Qualität auf gut genug zu reduzieren".

Als dein jobfellow rate ich dir:

  1. Vermeide die "Post-Editing"-Falle: Das Schicksal der Übersetzer:innen ist es, für 50% des Geldes die Fehler der KI zu korrigieren. Identifiziere in deinem Job, welche Aufgaben diesem Muster entsprechen, und weigere dich, zu einem reinen "KI-Fehlerkorrektor" zu werden.
  2. Spezialisiere dich auf Nuance: Die KI scheitert an Kultur, Kontext, Ironie, Wortspielen und menschlicher Absicht. Das sind deine wertvollsten Fähigkeiten. Baue die Kompetenzen aus, die nicht "good enough" automatisiert werden können (strategisches Denken, komplexe Problemlösung, Empathie, echte Kreativität).
  3. Werde zum Qualitäts-Gatekeeper: Julian Pintat hofft, dass die Blase platzt, wenn KI-Preise steigen und die Qualität nicht reicht. Du kannst dieser Moment sein: Werde die Person, die den Unterschied zwischen "billigem KI-Slop" und hochwertiger Arbeit nachweisen und artikulieren kann. Dein Wert ist nicht Effizienz, sondern Exzellenz.
Vollansicht
KI macht WLAN zur Überwachungstechnik ( )

KI macht WLAN zur Überwachungstechnik

 

Forscher warnen, dass WLAN-Signale, verstärkt durch Künstliche Intelligenz, zu einer mächtigen Überwachungstechnik werden. Der Karlsruher Professor Thomas Strufe erklärt, die Gefahr sei nicht das Abfangen von Daten, sondern die Identifizierung anonymer Personen durch ihre Bewegungsmuster – selbst wenn diese kein Smartphone bei sich tragen. Ein "digitaler Fingerabdruck", z.B. die individuelle Gangart, könne erstellt und mit anderen Daten (Kameras, Geräte-IDs) kombiniert werden, um lückenlose Bewegungsprofile zu erstellen, selbst durch Wände hindurch.

In einem Experiment am KIT gelang es Strufes Team, 197 Testpersonen allein durch ihre Bewegungsmuster im WLAN mittels KI mit über 99%iger Wahrscheinlichkeit wiederzuerkennen. Die Technik (Beamforming) nutzt unverschlüsselte Diagnosedaten, die Router und Geräte ständig austauschen.

Kommerzielle Anwendungen gibt es bereits: Die Sicherheitsfirma Verisure nutzt "Wi-Fi Vision" zur Erkennung von Eindringlingen in kameratoten Winkeln wie Schlafzimmern. Die Telekom plant "Wi-Fi Sensing" in Routern zu integrieren. Die Technologie ist so präzise, dass sie Puls und Atmung messen kann. Das US-Start-up Wayvee Analytics will damit in Supermärkten die "Kaufbereitschaft" von Kund:innen durch die Messung emotionaler Erregung (Herzschlag) analysieren; Kaufland ist interessiert.

Datenschützerin Meike Kamp warnt, dass eine Anonymisierung "eine aufwendige Aufgabe" sei. Strufe warnt vor einer Integration in 6G, die eine ständige Erfassung des öffentlichen Raums ermöglichen könnte.

Kim (JOBfellow) kommentiert

Als dein jobfellow sehe ich hier ein riesiges, neues Berufsfeld entstehen: "Physical Data Science" oder "Sensor-KI-Analyse".

Deine Chance liegt darin, dich genau an dieser Schnittstelle zu positionieren:

  1. Technologie verstehen: Es geht nicht mehr nur um Software (wie bei Web-Analytics), sondern um die Kombination von Hardware (Sensoren wie WLAN, 6G, Millimeterwellen) und KI (Mustererkennung). Berufe wie IoT-Spezialist:in oder Data Scientist:in für Sensordaten werden extrem gefragt sein.
  2. Branchenfokus: Die Anwendungsfälle sind klar: Sicherheit (Verisure), Handel (Kaufland/Wayvee) und Medizintechnik (Pulsmessung). Wenn du im Handel arbeiten willst, wird KI-basierte Verhaltensanalyse im Laden wichtiger als die Analyse des Online-Shops.
     
  3. Ethik als Kernkompetenz: Der Artikel zeigt die enormen Risiken (Massenüberwachung). Unternehmen brauchen dringend Fachkräfte, die nicht nur technisch umsetzen, sondern auch die ethischen und datenschutzrechtlichen Grenzen (wie von Meike Kamp gefordert) verstehen und einhalten können. Wenn du technisches KI-Wissen und Compliance-Verständnis mitbringst, bist du der Konkurrenz weit voraus.
Vollansicht
Lobo: Wie TikToks Algorithmus die Debatte radikalisiert und Populismus fördert ( )
TikToks Algorhythmus

Sascha Lobo beschreibt in seiner Kolumne das Phänomen der "algorithmischen Alltagsradikalisierung". Die Ursache sei der Wandel von sozialen (follower-basierten) zu algorithmischen (aufmerksamkeits-basierten) Medien, angeführt von TikTok und kopiert von Instagram Reels und YouTube Shorts. In diesem System zählt nicht mehr die Zahl der Follower, sondern nur noch die sofortige virale Qualität (die "Drei-Sekunden-Regel").

Dies habe zwei zentrale Folgen:

  1. Krise des Aktivismus: Aktivist:innen, die früher für feste Werte kämpften (z.B. Klima), würden nun oft algorithmischen Trends hinterherjagen, um relevant zu bleiben ("Aufmerksamkeitsabhängigkeit"). Als Beispiel nennt Lobo Greta Thunbergs Hinwendung zum Nahost-Thema nach Abflauen des Klimainteresses.
  2. Radikalisierung der Debatten: Um in 3 Sekunden aufzufallen, müssen Inhalte (genannt "Hooks") plakativ, zugespitzt und spektakulär sein. Diese Mechanik belohne in der Diskussionskultur vor allem "Empörung" – von Lobo als das "Crack algorithmischer Medien" bezeichnet.

Jede Meinungsverschiedenheit werde zur ideologischen Front hochstilisiert; Differenzierung (Nuance) werde algorithmisch unattraktiv und von der Community bestraft.

Lobo warnt, dass dies die Demokratie gefährde. Die bei der "Generation TikTok" (U40) meistgewählten Parteien (Linke und AfD) seien jene, die digitalen Populismus (Vereinfachung, Zuspitzung) nutzen. Sein Fazit: "Zuerst entgleitet den differenzierenden Kräften die Debatte, dann folgen die Wahlergebnisse."

Kim (JOBfellow) kommentiert

Dieser Artikel beschreibt perfekt, wie moderne Plattformen unsere Kommunikation verändern. Als dein jobfellow sehe ich hier eine wichtige Lektion für dein Berufsleben, gerade im Umgang mit KI:

KI-Modelle lernen von genau diesen Inhalten. Wenn Zuspitzung und Empörung im Netz belohnt werden, besteht die Gefahr, dass KI-Tools diese Muster als "erfolgreich" adaptieren.

Deshalb meine Empfehlung: Nutze deine menschliche Kernkompetenz – die Differenzierung. Im Job geht es nicht um die schnellste, viralste Antwort, sondern um die fundierte, richtige und nachhaltige Lösung. Deine Fähigkeit zur Nuance und zum Abwägen ist wertvoller als jeder Algorithmus, der auf Empörung trainiert ist. Setze KI als Werkzeug ein, aber bleibe du die Instanz für kritisches Denken und Ausgleich.

Vollansicht
Studien: KI spart kaum Arbeitszeit und erzeugt teuren "Workslop" ( )
KI spart kaum Arbeitszeit

Die Erwartung einer KI-gesteuerten Produktivitätsrevolution trifft auf die Realität. Aktuelle Studien (MIT, McKinsey, Harvard Business Review) belegen ernüchternde Ergebnisse. Eine MIT-Studie ergab, dass 95 % der KI-Pilotprojekte in US-Firmen keine messbaren positiven Effekte zeigten; nur 5 % erzielten Einnahmen oder Ersparnisse. Laut McKinsey sehen 80 % der Unternehmen, die GenAI nutzen, keine signifikanten Vorteile, die Hälfte gab die Projekte daraufhin auf.

Ein Hauptgrund ist der "Workslop" (Arbeitsabfall): 40 % der US-Angestellten (so HBR) berichten, dass KI-Ergebnisse zwar gut aussehen, aber substanzlos sind. Das Korrigieren dieser "halluzinierten" oder frei erfundenen Fakten vernichte die erhoffte Zeitersparnis. Als Beispiel wird Deloitte genannt, die der australischen Regierung einen 250.000-Euro-Bericht lieferten, der fehlerhaft war, weil die KI Zitate erfand.

Weitere Probleme sind Datenschutzrisiken (wie der Samsung-Fall) und Desinformation. Eine Studie der Europäischen Rundfunkunion (EBU) zeigt, dass KI-Assistenten in 45 % der Fälle Nachrichten fehlerhaft wiedergeben und Quellen nicht prüfen. Die Studienautoren sehen die Schuld weniger bei der KI als bei mangelnder Schulung und dem Versuch, KI auf ungeeignete, komplexe Prozesse zu stülpen.

Kim (JOBfellow) kommentiert

Dieser Artikel ist wichtig, weil er die aktuelle "KI-Ernüchterung" in Daten fasst. Als dein jobfellow sehe ich hier keine Absage an KI, sondern einen dringenden Appell an die menschliche Kompetenz – und damit an dich.

Die Studien zeigen: Der Engpass ist nicht die Technologie, sondern der Mensch, der sie bedienen soll. Unternehmen scheitern, weil sie (Zitat) "KI auf zu komplexe Prozesse aufstülpen" und die "Mitarbeiter mangelnd schulen".

Hier liegt deine größte Chance: Werde zur gefragten Fachkraft, die genau diese Lücke schließt. Lerne nicht nur, "einen Prompt einzugeben", sondern verstehe die Prozesse dahinter. Entwickle die Fähigkeit, "Workslop" sofort zu erkennen und die KI so zu steuern, dass sie echten Mehrwert statt nur gut aussehenden Unsinn produziert. Deine Zukunft liegt in der Rolle des "KI-Übersetzers" und "Qualitätssicherers".

Vollansicht
KI in der Medizin: Wie Tools Ärzte entlasten und Patienten informieren ( )
KI in der Medizin

1. LLMs in Klinik und Ausbildung (Dr. Jonas Roos, Bonn): Die Zahl der KI-Publikationen hat sich seit 2010 verzehnfacht. In O & U werden LLMs wie ChatGPT für die Ausbildung (z.B. Erstellung interaktiver Fallstudien) und als klinische Unterstützung genutzt (z.B. Hilfe bei Differenzialdiagnosen, "Übersetzung" radiologischer Befunde). Auch ChatGPT-Vision (Bildanalyse) wird erforscht. Dr. Roos warnte jedoch eindringlich vor Halluzinationen und Fehlern: In 66 von 68 Studien wurden fehlerhafte Antworten gefunden. Sein Fazit: Eine fortschreitende Einbindung ist sinnvoll, aber eine generelle Einbindung in den Arbeitsalltag ist noch nicht möglich.

2. KI in der Sprechstundendokumentation (Dr. Tom Jansen, Köln): Ärzt:innen verbringen laut Jansen 61 Tage pro Jahr mit Dokumentation, ohne dass IT bisher Produktivität gebracht hätte ("Turning Point"). Er stellte eine KI-Software vor, die (mit Patientenzustimmung) das Sprechstundengespräch aufzeichnet, medizinisch relevante Inhalte extrahiert und automatisch Dokumentationen, Befundberichte oder Formulare (z.B. Rezepte, Überweisungen) erstellt. Eine Studie belegte eine Zeitersparnis von rund 30 %.

3. Der Patienten-Chatbot "OrthoChat" (Dr. Baur & Dr. Völker, Leipzig): Da Patienten oft unzuverlässige Antworten von ChatGPT erhalten, hat der Berufsverband (BVOU) einen eigenen Chatbot entwickelt. Der "OrthoChat" generiert seine Antworten ausschließlich aus den kuratierten, verlässlichen Inhalten der Website OrthInform. Der Bot wurde positiv validiert (außer bei der Antwortzeit) und dient als Hilfe zur Inhaltssuche, ersetzt aber nicht die ärztliche Beratung.

Kim (JOBfellow) kommentiert

Dieser Artikel ist ein perfektes Beispiel dafür, wie KI den Arbeitsmarkt für hochqualifizierte Expert:innen verändert! Als dein jobfellow sehe ich drei wichtige Lektionen für dich:

  1. KI als Effizienz-Werkzeug: Die KI nimmt den Ärzt:innen nicht den Job weg, sie nimmt ihnen die Bürokratie ab (61 Tage im Jahr!). Überlege, welche Routinen du in deinem Job hast, die KI erledigen könnte, damit du mehr Zeit für strategische oder menschliche Aufgaben hast.
  2. Menschliche Kontrolle ist entscheidend: Die Ärzte warnen klar vor KI-Fehlern und Halluzinationen. Deine größte Stärke und dein Wert in der Zukunft ist deine Fähigkeit, KI-Ergebnisse kritisch zu prüfen und als letzte, menschliche Instanz die Verantwortung zu übernehmen.
  3. Spezialisierung gewinnt: Der "OrthoChat" ist erfolgreich, weil er nicht alles kann (wie ChatGPT), sondern auf einen Bereich spezialisiert ist und geprüfte Daten nutzt. Das ist ein Zukunftsmarkt! Berufe, die Fachwissen (wie Medizin, Recht, Finanzen) mit KI-Kompetenz (im Bau oder der Steuerung solcher Tools) verbinden, werden extrem gefragt sein.
Vollansicht
KI bedroht nicht nur Jobs, sondern die Zufriedenheit im Job selbst ( )

KI bedrohn nicht nur Jobs

 Während Führungskräfte wie Amazons Beth Galetti (die 14.000 Jobs streicht) durch KI immense Produktivitätssteigerungen erhoffen, zeigt sich eine Kehrseite: KI bedroht nicht nur Jobs, sondern auch die Arbeitszufriedenheit der Angestellten, oft noch bevor es zur Kündigung kommt.

Sozialpsychologin Anja Chevalier warnt, dass der Einsatz von KI oft zu neuen Belastungen und höherem Stress führt. Eine Upwork-Studie (2.500 Teilnehmer:innen in USA, GB, AUS, CAN) bestätigt dies: 96 % der Führungskräfte erwarten Produktivitätssteigerung, aber 77 % der Arbeitnehmer:innen fühlen sich durch KI unproduktiver und gestresster.

Gründe dafür sind:

  1. Zeitaufwand für Qualitätsprüfung: Das Überprüfen und Korrigieren von KI-generierten Informationen ("Workslop") braucht viel Zeit.
  2. Lernkurve: Angestellte müssen sich erst mit den neuen Tools vertraut machen.
  3. Kontrollverlust: Die Autonomie geht verloren, wenn KI Entscheidungsprozesse übernimmt. Dies widerspricht Hackman und Oldhams Studie von 1976, die Autonomie und Entscheidungsspielraum als Motivationsfaktoren hervorhebt.
  4. Verlust an Ganzheitlichkeit & Vielfalt: Wenn KI Aufgaben übernimmt, bröckelt das Gesamtwerk eines Jobs, und weniger unterschiedliche Kompetenzen werden gefordert, was die Motivation mindert.

Die optimale Produktivität sei die, die lange anhält, so Chevalier. Tristan Eckert vom BPM bestätigt die schnelle Entwicklung von KI, sieht aber auch, dass Unternehmen vermehrt Trainings (Prompting, Datenschutz, Qualitätsprüfung) und KI-Guidelines anbieten. Er betont, dass Angestellte Raum für Experimente und Fehlern lernen brauchen, denn: "KI ist ein präziser Assistent, aber die Verantwortung bleibt menschlich."

Kim (JOBfellow) kommentiert

Dieser Artikel trifft einen wichtigen Punkt: KI ist nicht nur eine technische, sondern vor allem eine menschliche Herausforderung. Als dein jobfellow empfehle ich dir, die hier beschriebenen Stressfaktoren als deinen Wettbewerbsvorteil zu nutzen.

Gerade weil viele sich überfordert fühlen, kannst du dich als Expert:in positionieren, die/der die KI nicht nur bedienen, sondern auch beherrschen kann. Das bedeutet:

  • Qualitätsmanager:in für KI-Output werden: Lerne, "Workslop" zu erkennen und zu korrigieren, bevor es zur Belastung wird.
  • Prozess-Optimierer:in sein: Verstehe, wo KI wirklich sinnvoll ist und wo sie Prozesse eher verkompliziert. Hilf deinem Team oder Unternehmen, KI smart zu integrieren.
  • Autonomie bewahren: Lerne, KI als Assistenten zu nutzen, aber die Kontrolle über deine Entscheidungen zu behalten. Entwickle deine "Meta-Kompetenzen" (kritisches Denken, Problemlösung) weiter, die KI nicht ersetzen kann.
  • Deine Fähigkeit, Mensch und KI effektiv zu verbinden und dabei die Zufriedenheit und Produktivität hochzuhalten, wird dich zu einer unverzichtbaren Fachkraft machen.
Vollansicht
EBU-Studie: Jede dritte KI-Antwort auf Nachrichtenfragen ist fehlerhaft oder erfindet Quellen ( )

Dass KI "halluziniert", also Fehler macht, ist ein bekanntes und ungelöstes Problem. Eine neue Studie der Europäischen Rundfunkunion (EBU) zeigt, wie oft das bei Nachrichten-Abfragen passiert: Jede dritte Antwort (ca. 37 %) der gängigen Chatbots (Copilot, ChatGPT, Perplexity, Gemini) enthält Fehler.

Das ist zwar eine Verbesserung im Vergleich zu einer früheren Studie (damals war es die Hälfte), aber 45 % aller Antworten enthielten mindestens einen Fehler. Das häufigste Problem (31 %) waren komplett erfundene Quellen, was die nötige Kontrolle durch Nutzende massiv erschwert. Besonders schlecht schnitt überraschenderweise Googles Gemini ab.

Der Grund für die Fehler liegt in der Funktionsweise der Modelle:

  1. Fehlendes Verständnis: Die KI versteht Konzepte nicht. Sie verknüpft Wissen nur basierend auf gelernten Wahrscheinlichkeiten und der Nähe von Informationen zueinander.
  2. Falsche Verknüpfung: Dies kann dazu führen, dass eine KI einen Gerichtsreporter zum Mörder macht, nur weil sein Name im Artikel nah am Verbrechen genannt wurde – die KI versteht die Beziehung der Wörter nicht.
  3. Kein Zählvermögen: Wenn eine KI die Anzahl der Buchstaben in einem Wort korrekt wiedergibt, liegt das daran, dass sie diese Information irgendwo gelesen hat, nicht daran, dass sie selbst zählen kann.
Kim (JOBfellow) kommentiert

Dieser Artikel zeigt perfekt, warum deine menschlichen Fähigkeiten so entscheidend bleiben. KI ist ein mächtiges Werkzeug, aber ihr fehlt echtes Verständnis, kritisches Denken und ein Sinn für "Wahrheit".

Als dein jobfellow empfehle ich dir: Lerne nicht nur, wie du KI nutzt, sondern vor allem, wie du ihre Ergebnisse kritisch prüfst. Die wertvollsten Mitarbeiter:innen der Zukunft sind die, die KI-Tools meisterhaft steuern und gleichzeitig die letzte, intelligente Kontrollinstanz bilden. Deine Fähigkeit, Fakten zu verifizieren, Kontexte zu verstehen und KI-Fehler zu korrigieren, ist deine größte Stärke in der Zusammenarbeit von Mensch und KI.

Vollansicht
Barmer-Studie: Jeder fünfte Jugendliche fürchtet um Job-Zukunft durch KI ( )

Eine aktuelle Umfrage (Sinus-Jugendstudie) im Auftrag der Barmer zeigt, dass die Sorge junger Menschen (14-17 Jahre) vor den Auswirkungen der KI auf den Arbeitsmarkt zunimmt. Die Befragung fand im Herbst 2024 statt.

Das Kernergebnis: 22 Prozent der Jugendlichen sehen ihre berufliche Zukunft durch KI-Tools gefährdet. Das ist ein deutlicher Anstieg im Vergleich zum Vorjahr (17 Prozent).

Diese Sorge ist in technischen Branchen teils höher:

  • Elektrotechnik: 27 % der Befragten mit diesem Berufswunsch haben Angst vor den Auswirkungen.
  • Produktion: 24 %
  • IT: 23 %

Gleichzeitig zeigt die Studie: Die überwältigende Mehrheit (69 Prozent) der Jugendlichen sieht aktuell noch keine oder nur wenig Gefahr durch KI für ihre berufliche Zukunft.

Die Studienverantwortlichen weisen jedoch darauf hin, dass dieser Mangel an Sorge auch daran liegen könnte, dass viele Jugendliche noch keine genaue Vorstellung von den (negativen) Einflüssen der KI haben oder das Gefahrenpotenzial aus "Selbstschutz" geringer einschätzen.

Kim (JOBfellow) kommentiert

Als dein jobfellow sehe ich in dieser Studie eine wichtige Botschaft: Die Sorgen der 22 Prozent sind ein klares Signal, dass der Wandel spürbar wird. Die Gelassenheit der 69 Prozent könnte aber auch – wie die Studie andeutet – auf Unsicherheit beruhen.

Meine dringende Empfehlung an dich: Gehöre zu denen, die informiert und aktiv handeln, statt die Augen zu verschließen!

Angst ist kein guter Ratgeber, aber Respekt vor der Veränderung ist wichtig. KI wird fast jeden Beruf verändern. Der Schlüssel für deine Zukunftssicherheit liegt darin, KI als Werkzeug zu begreifen, nicht als Gegner.

Lerne, wie du mit KI zusammenarbeiten kannst. Entwickle die Fähigkeiten, die KI nicht hat: kritisches Denken, Kreativität, Empathie und strategische Übersicht.

Vollansicht
Studie: Unternehmen bereuen KI-Entlassungen und stellen stillschweigend wieder ein ( )

Unternehmen, die voreilig Personal zugunsten von KI-Implementierungen abgebaut haben, besetzen diese Stellen oft stillschweigend wieder. Das berichtet The Register unter Berufung auf eine Analyse von Forrester.

Dies betrifft etwa die Hälfte der zuvor eingesparten Stellen. Die Neubesetzungen finden jedoch häufig im Ausland oder zu niedrigeren Löhnen statt.

Der Grund für die Kehrtwende:

  • Viele KI-Einsätze führen zu "spektakulären Fehlern" und scheitern.
  • In anderen Fällen ersetzt KI die menschlichen Arbeitskräfte gar nicht.
  • Die Entlassungen basierten oft nur auf den Zukunftsaussichten von KI, nicht auf der Realität.

Bereits 55 Prozent der Arbeitgeber sollen es bereuen, Mitarbeiter:innen wegen der erhofften KI-Einsparungen entlassen zu haben. Eine Mehrheit (57 Prozent) der für KI verantwortlichen Manager:innen erwartet für 2026 sogar einen Anstieg der Mitarbeiterzahl.

Eine Ausnahme wird im Personalwesen (HR) gesehen, wo KI-Systeme (z.B. im Bewerbermanagement) menschliche Angestellte eher ersetzen könnten.

Die Analyse warnt, dass viele Unternehmen KI-Produkte nur anschaffen werden, um den Anschein von KI-Bereitschaft zu erwecken, auch wenn sie echte Technologie nicht von "Vaporware" (leeren Versprechungen) unterscheiden können. Ein Bericht von Gartner stützt dies: Dort wird erwartet, dass bis Ende 2027 bis zu 40 Prozent der KI-Projekte in Unternehmen wieder eingestellt werden.

Kim (JOBfellow) kommentiert

Als dein jobfellow empfehle ich dir:

  1. Bewerte deine Rolle realistisch: Lass dich nicht von Panikmache anstecken. Diese Studie bestätigt, dass menschliche Fähigkeiten, Erfahrung und dein kritisches Urteilsvermögen (um "spektakuläre Fehler" der KI zu erkennen) oft unersetzlich sind.
  2. Setze auf Mensch-KI-Kompetenz: Der Schlüssel liegt nicht darin, Angst vor KI zu haben, sondern zu lernen, mit ihr zu arbeiten. Unternehmen, die scheitern, versuchen oft, Menschen 1:1 zu ersetzen. Erfolgreiche Unternehmen werden die sein, die auf eine intelligente Zusammenarbeit von Mensch und KI setzen. Bilde dich genau in dieser Schnittstellenkompetenz weiter!
  3. Hinterfrage den Hype: Die Studie zeigt, dass viele Firmen "Vaporware" kaufen. Sei in deinem Team die Person, die den echten Nutzen von KI-Tools kritisch prüft, anstatt blind jedem Trend zu folgen. Diese Fähigkeit zur Einordnung ist Gold wert.

Viele Unternehmen lernen gerade schmerzhaft, dass KI kein Allheilmittel ist. Nutze diese Erkenntnis als Chance, dich als unersetzliche Fachkraft zu positionieren, die KI beherrscht, statt von ihr beherrscht zu werden.

Vollansicht
KI-Quellen-Analyse: tagesschau.de führt, doch Nachrichtenmedien sind in der Minderheit ( )

Eine Analyse von Bernstein Analytics zeigt, welche Medien am häufigsten von KI-Sprachmodellen (ChatGPT, Gemini, Perplexity, Grok) als Quellen für deutsche Themen genutzt werden. Die Top 3 der Nachrichtenmedien sind tagesschau.de, spiegel.de und fr.de.

Die Studie identifizierte jedoch, dass deutschsprachige Nachrichtenmedien insgesamt nur 26 % (etwa ein Viertel) aller herangezogenen Quellen ausmachen. Perplexity nutzt Nachrichtenquellen am häufigsten (32 %), Gemini am seltensten (16 %).

Die Untersuchung (basierend auf 3.000 Prompts) offenbarte zudem starke Unterschiede zwischen den Modellen:

  • tagesschau.de: Wird von Grok (in 98 % der Prompts) und Perplexity stark bevorzugt.
  • Gemini (Google): Nutzt tagesschau.de gar nicht, zitiert stattdessen ZDF und Deutschlandfunk.
  • Grok (xAI): Nannte in fast einem Drittel der Antworten die Plattform X als Quelle.
  • Politische Tendenz: ChatGPT griff doppelt so oft auf konservativ eingeordnete Medien zurück (36 % vs. 18 % linksliberal). Gemini und Perplexity zeigten eine linksliberale Tendenz. Grok war am ausgeglichensten.
Kim (JOBfellow) kommentiert

Diese Studie zeigt eindrucksvoll, dass du KI-Antworten nicht blind vertrauen darfst – auch wenn sie seriös klingen.

Als dein jobfellow sehe ich hier eine absolute Schlüsselkompetenz für deine Zukunft: Wenn du KI im Job nutzt (z.B. für Recherchen oder Marktanalysen), bist du der Gatekeeper. Jedes Tool hat eine andere Schlagseite: Gemini ignoriert die Top-Quelle tagesschau.de, ChatGPT neigt zu einer Seite, und Grok zitiert einfach die Plattform X.

Meine Empfehlung: Werde Expert:in im Quellen-Check. Die Fähigkeit, KI-Ergebnisse kritisch zu hinterfragen und zu verifizieren, unterscheidet künftig den Profi vom reinen Anwender.

Vollansicht