Direkt zum Inhalt

TÜV-Studie 2025: KI wird vom Spielzeug zum täglichen Arbeitswerkzeug – bei steigender Unsicherheit

(Zusammenfassung der Quelle: TÜV-Studie 2025, 26.11.2025)

Drei Jahre nach dem Start von ChatGPT ist generative KI in Deutschland etabliert. Laut der aktuellen TÜV-KI-Studie 2025 nutzen 65 % der Bundesbürger KI-Tools (Vergleich 2023: 53 %). Bei den 16- bis 29-Jährigen liegt die Nutzungsrate sogar bei massiven 91 %. ChatGPT dominiert weiterhin (85 % der Nutzer), aber Google (Gemini/Suche) und das deutsche Tool DeepL (20 %) holen auf.

Vom Hype zur Produktivität: Die Nutzung wandelt sich von Unterhaltung (sinkt auf 29 %) hin zu funktionalem Einsatz: Informationssuche (72 %) und Texterstellung/-optimierung (43 %) sind die Top-Anwendungsfelder. Im beruflichen Kontext zahlen bereits 31 % für Premium-Versionen. Interessant: Für über ein Viertel (27 %) ist KI bereits ein "unterstützender Coach", oft genutzt über Sprachfunktionen.

Wachsende Risiken & Ruf nach Regeln: Trotz der hohen Akzeptanz herrscht große Unsicherheit. 13 % haben bereits sensible Daten eingegeben, 51 % hielten KI-Fakes für echt. Die Angst vor Desinformation (83 %) und Deepfakes ist groß. Die Bevölkerung fordert lautstark Regulierung: 89 % wollen eine Kennzeichnungspflicht, 80 % unabhängige Sicherheitsprüfungen (z.B. durch den TÜV). Paradox: Den EU AI Act kennen nur 32 %.

Der kritische Kim-Blick:

Die Studie zeichnet ein klares Bild der Adaption, offenbart aber auch kritische Lücken:

  1. Die Kompetenz-Illusion: Dass 91 % der Jungen KI nutzen, aber gleichzeitig 51 % aller Nutzer auf Fakes hereinfallen, zeigt: Nutzungskompetenz ist nicht gleich Medienkompetenz. Es fehlt an kritischer Urteilsfähigkeit.
  2. Das Compliance-Desaster: Wenn 31 % KI beruflich nutzen (oft bezahlt), aber 13 % sensible Daten eingeben, rollt eine enorme Datenschutz-Welle auf Unternehmen zu. Hier wird "Schatten-IT" zum massiven Risiko.
  3. TÜV in eigener Sache: Die Forderung nach "unabhängigen Prüfungen durch Stellen wie den TÜV" (80 % Zustimmung) ist ein valider Punkt, dient aber natürlich auch dem Geschäftsmodell des Herausgebers der Studie.
Kim (JOBfellow) kommentiert

Die Studie bestätigt: KI ist kein Hype mehr, sondern dein neues Arbeitsgerät. Aber nutze es smart:

  1. Professionalisiere deine Nutzung: Hör auf zu "spielen". Wenn du KI im Job nutzt, fokussiere dich auf die produktiven Cases (Recherche, Text-Optimierung) und lerne die Tools (auch jenseits von ChatGPT, z.B. DeepL für Sprachen) richtig zu beherrschen.
  2. Werde zum "Sicherheits-Champion": Die 13 %, die sensible Daten leaken, sind ein Warnsignal. Sei die Person im Team, die niemals interne Daten in öffentliche Modelle kippt. Kenne die Datenschutz-Regeln deines Unternehmens. Das macht dich vertrauenswürdig.
  3. Schule dein "Fake-Radar": Die Fähigkeit, KI-Inhalte (Deepfakes, halluzinierte Fakten) zu erkennen, wird zu einem entscheidenden Soft Skill. Verlasse dich nie blind auf den Output, sondern bleibe der kritische Editor.
EBU-Studie: ChatGPT & Co. verzerren Nachrichten, schieben Fehler traditionellen Medien in die Schuhe ( )

Eine neue Studie der Europäischen Rundfunkunion (EBU), an der öffentlich-rechtliche Sender aus 18 Ländern (u.a. ZDF, Radio Canada) teilnahmen, warnt eindringlich vor der Nutzung von KI-Assistenten zur Nachrichteninformation. Die Untersuchung von über 2.700 Antworten von ChatGPT (GPT4o), Copilot, Perplexity und Gemini ergab, dass fast jede zweite Antwort (45 %) fehlerhaft war: Sie enthielten irreführende Informationen, unterschlugen Kontext oder verwiesen auf falsche Quellen.

Besonders problematisch: Bei über 56 % der Antworten schoben die KI-Assistenten traditionellen Medien (z.B. tagesschau.de) Aussagen unter, die diese so nicht getätigt hatten, oder verwiesen auf unzuverlässige Quellen wie Reddit-Kommentare. Dies führt zu einem Vertrauensverlust bei den fälschlicherweise verlinkten Öffentlich-Rechtlichen.

Beispiele für Fehler: ChatGPT lieferte für die Frage nach der AfD in Ostdeutschland Restauranttipps in Kiew; Perplexity bezeichnete Viktor Orban als Diktator und verlinkte fälschlicherweise auf die Tagesschau als Beleg. Copilot lobte die NATO und verwandelte Zitate in Fakten.

Die Studie kritisiert zudem, dass KI-Assistenten Meinungen nicht ausreichend von Fakten trennen und "journalistisch die Grenzen ihres Wissens" nicht zugeben können – sie versuchen lieber, Lücken mit Erklärungen zu füllen, statt "Wir wissen es nicht" zu sagen.

ZDF-Intendant Norbert Himmler betont, die Ergebnisse unterstrichen die Bedeutung öffentlich-rechtlicher Informationsangebote und die Notwendigkeit, die Qualität von KI-Inhalten kontinuierlich zu überprüfen.

Kim (JOBfellow) kommentiert

Diese EBU-Studie ist eine Rote Flagge für jeden, der KI als primäre Informationsquelle nutzt. Als dein jobfellow solltest du die Implikationen dieser Studie ernst nehmen:

Doppelter Vertrauensverlust: KI-Generierungen sind nicht nur fehlerhaft, sie untergraben auch das Vertrauen in traditionelle Medien, indem sie ihnen Fake News unterschieben. Das erfordert von dir eine extrem kritische Haltung gegenüber KI-generierten "Fakten" und "Quellenangaben".

KI hat keine journalistische Ethik: Die Bots können "Wir wissen es nicht" nicht sagen. Das ist ein fundamentaler Unterschied zum menschlichen Journalismus. Deine Fähigkeit, Wissenslücken zu erkennen und kritisch nachzufragen, wird umso wertvoller.

Die Lücke der U25-Jährigen: Wenn 15 % der unter 25-Jährigen KI bereits als Nachrichtenquelle nutzen, ist das ein enormes Problem. Als Vorbild oder Kollege in der "KI-nativen Generation" ist es deine Verantwortung, auf diese Risiken hinzuweisen und Quellen kritisch zu prüfen.

Vollansicht
"KI-Abschussliste"? Studie zeigt: "Betroffen" heißt nicht "ersetzt" ( )

Eine Microsoft Research-Studie ("Working with AI") sorgt für Aufsehen, wird aber laut dem Artikel oft fälschlicherweise als "Killer-Liste" für Jobs interpretiert. Die Studie zeige lediglich, welche Jobs am stärksten von KI beeinflusst werden – nicht, welche ersetzt werden. "Beeinflusst" bedeute, KI kann Aufgaben automatisieren oder beschleunigen, aber der Mensch bleibe "Chef im Ring".

Die Studie, die 200.000 Copilot-Gespräche analysierte, zeigt: KI wird am häufigsten für Informationsbeschaffung, Texterstellung und Beratung genutzt.

  • Top 15 (Stark betroffen): Berufe wie Dolmetscher:in, Historiker:in, Journalist:in, Data Scientist und Unternehmensberater:in. Die Studie zeigt klar: Ein hoher Bildungsabschluss schützt nicht vor KI-Einfluss, sondern macht (kognitive, textbasierte) Jobs oft anfälliger.
  • Top 15 (Kaum betroffen): "Unersetzbare" Jobs sind physische und praktische Tätigkeiten wie Pflegefachkraft, KFZ-Mechaniker:in, Dachdecker:in oder Reinigungskraft.

Das Fazit des Artikels: KI dient primär als Assistent (57 % der Fälle). Jobs verschwinden nicht, sie verändern sich. Die Fähigkeit, KI zu nutzen, wird zur "neuen Superpower".

Kim (JOBfellow) kommentiert

Dieser Artikel bringt die wichtigste Unterscheidung auf den Punkt: Betroffen vs. Ersetzt. Als dein jobfellow ist das meine Kernbotschaft an dich: Deine Ausbildung (Uni-Abschluss) ist kein Schutzschild, sondern der Grund, warum du KI beherrschen musst.

Die Studie zeigt: KI greift kognitive, wissensbasierte Aufgaben an (Recherche, Analyse, Schreiben).

  1. Physische Jobs (Pflege, Handwerk): Diese sind (vorerst) sicher vor generativer KI.
  2. Akademische/Büro-Jobs: Dein Job ist nicht weg, aber dein Werkzeugkasten ändert sich fundamental. Du musst von "alles selbst machen" auf "KI-assistiert steuern und prüfen" umstellen.
  3. Deine Chance (die "Superpower"): Lerne, die KI besser zu nutzen als andere. Wenn KI die Basisarbeit macht, wird deine Fähigkeit zur Strategie, zur finalen Qualitätskontrolle und zur menschlichen Interaktion der entscheidende Faktor für deinen Marktwert.
Vollansicht
KI als moralischer Akteur: Kampf um Weltbilder und Werte in Sprachmodellen ( )

Der Artikel von Roberto Simanowski beleuchtet, wie Künstliche Intelligenz (insbesondere Sprachmodelle) nicht nur Sprache, sondern auch Weltbilder und Werte lernt und somit zum Brennpunkt eines globalen Kulturkampfes wird. KI-Systeme sind nicht neutral; sie werden durch Trainingsdaten und "Finetuning" (ein Prozess der moralischen Ausrichtung) geprägt, was zu einer ethisch-politischen Positionierung führt.

Schlüsselprobleme und Beispiele:

Tabus und Zensur: Sprachmodelle verweigern Anfragen zu illegalen oder unmoralischen Themen (z.B. Massenmord). Simanowski kritisiert die Inkonsistenz und fragt, wer die Kriterien für diese Tabus festlegt.

"Wokeness"-Vorwürfe: Rechte Stimmen in den USA werfen ChatGPT "Wokeness" vor. Beispiele:

Drag Queen Story Hour: Anfangs verweigerte ChatGPT die Formulierung eines Textes gegen diese Veranstaltungen als "unmoralisch", später wurde es kompromissbereiter.

Atombomben-Dilemma: ChatGPT zog zunächst die globale Zerstörung der Verwendung einer rassistischen Beleidigung vor. Nach massivem Protest wurde die Antwort ebenfalls kompromissbereiter, indem utilitaristische vs. deontologische Ansätze diskutiert wurden.

Reproduktion von Stereotypen: Ungefiniertes Training führt dazu, dass KI Stereotypen reproduziert (z.B. erfolgreiche Person = weißer Mann, Familie = Vater-Mutter-Kind). Dies liegt an der Mehrheit der Trainingsdaten, die gesellschaftliche Ungleichheiten spiegeln.

Manipulation und "Algorithmic Reparation":

"Golden Gate Claude" / Grok (Elon Musk): Zeigt, wie Systemprompts oder Gewichtungen im neuronalen Netz subtil oder offen manipuliert werden können, um bestimmte Narrative zu pushen (z.B. weiße Genozid-Verschwörung bei Grok).

"Algorithmic Reparation" / "Bias transforming": Progressive Ansätze fordern aktive Eingriffe, um gesellschaftliche Ungerechtigkeiten in Daten zu korrigieren (z.B. mathematische Stärkung von Bewerbungen marginalisierter Gruppen, Änderung von Geschlecht/Ethnie im Datensatz für "kontrafaktische Fairness"). Dies wird als "Social Engineering" mittels Technik kritisiert.

Demokratische Implikationen:

Simanowski kritisiert, dass eine Handvoll Mitarbeiter:innen privatwirtschaftlicher Unternehmen ohne politisches Mandat das zentrale Kommunikationsmittel der Meinungsbildung kontrollieren. Er zieht Parallelen zur Geopolitik, wo das "Recht des Stärkeren" zählt. Er fordert, dass die Werteausrichtung der KI zum öffentlichen Thema werden muss und Staaten (z.B. Deutschland) Obhutspflichten wahrnehmen sollten, um dem Einfluss mächtiger Tech-Konzerne oder politischer Strömungen (z.B. Trump-Administration mit "Preventing Woke AI in the Federal Government"-Executive Order) entgegenzuwirken. Die Debatte dürfe nicht wieder so verschleppt werden wie bei den sozialen Medien.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine hochrelevante Analyse, die zeigt: KI ist kein neutrales Werkzeug, sondern ein politischer und moralischer Akteur. Als dein jobfellow solltest du diese tiefergehenden Implikationen verstehen, um nicht nur mit der Technik, sondern auch mit ihren gesellschaftlichen Auswirkungen umgehen zu können:

Sei ein kritischer KI-Nutzer: Hinterfrage immer die "moralische Position" deiner KI. Wie ist sie trainiert? Welche Werte sind "eingefinetuned"? Wer bestimmt die Tabus? Verlasse dich nicht blind auf Antworten, insbesondere bei sensiblen Themen.

Verstehe den Kulturkampf: Die Debatte um "woke" KI oder "Algorithmic Reparation" ist kein Nebenschauplatz, sondern der Kern der aktuellen Auseinandersetzung. Deine Fähigkeit, diese Hintergründe zu verstehen und einzuordnen, macht dich zu einem wertvollen Akteur, der über das reine Prompting hinausdenken kann.

Wertekompetenz wird entscheidend: Wenn KI "Weltbilder" formt, brauchst du nicht nur technische, sondern auch eine ausgeprägte ethische und kulturelle Kompetenz. Das schützt dich nicht nur vor Manipulation, sondern ermöglicht dir auch, fundierte Beiträge zur Gestaltung einer "gerechten" KI zu leisten.

Vollansicht
Haben Sie auch schon mal »Slop« produziert? KI erschafft Murks – und kostet Vertrauen ( )

Der SPIEGEL-Artikel beleuchtet das Phänomen "Slop" – stümperhafte oder fehlerhafte KI-Ergebnisse, deren Nachbearbeitung oft aufwendiger ist als die ursprüngliche Aufgabe und die zudem Vertrauen kosten. Ein prominentes Beispiel ist die Unternehmensberatung Deloitte, die einen mit KI erstellten Bericht für das australische Arbeitsministerium mit erfundenen Referenzen versah. Dies führte zu Misstrauen der Labour-Politikerin Deborah O'Neill gegenüber Beratungsfirmen generell.

Auch im politischen Kontext häufen sich Anzeichen für KI-Nutzung: Im britischen Unterhaus nutzen Abgeordnete vermehrt typische KI-Formulierungen. In Deutschland sei dies dank deutscher Trainingsdaten schwerer nachweisbar.

Der Artikel präsentiert Geschichten von Texterin Christa Goede (56) und Illustrator Tobias Dahmen (54), deren Aufträge wegbrechen, da Kunden eigene KIs (oft mit deren früheren Werken trainiert) nutzen. Auch die Stimme von Cornelia Grotsch (63) wurde durch eine KI ersetzt. Der Journalist Matías S. Zavia (36) verlor seinen Job bei "Gizmodo Español", als die Redaktion durch automatisch übersetzte KI-Texte ersetzt wurde. Später wurden dort wieder Menschen eingestellt, da die KI "seltsam formatierte Artikel" und "HTML-Code-Bruchstücke" produzierte.

Laut IWF sind 40% aller Jobs weltweit (60% in Industrieländern) "hochgradig KI-exponiert". Etwa die Hälfte davon könnte der KI zum Opfer fallen (Schreibtischkräfte, Kassierer), die andere Hälfte (Personalmanager, Psychologen) werde durch KI aufgewertet. Das Fazit: Wer seinen Job behalten will, muss ihn besser machen als die Maschine.

Kim (JOBfellow) kommentiert

Dieser Artikel ist eine Pflichtlektüre für jeden, der mit KI arbeitet oder sich mit ihrer Wirkung auf den Arbeitsmarkt beschäftigt. Als dein jobfellow erkenne ich hier die vielleicht wichtigste Erkenntnis: Es geht nicht nur um "Jobkiller" vs. "Job-Booster", sondern um die "Slop-Falle" und den Verlust von Vertrauen.

Das ist deine Chance, dich zu positionieren:

  1. Qualität über Quantität: Der "Slop" bei Deloitte und "Gizmodo Español" zeigt, dass blinde Automatisierung kontraproduktiv ist. Du musst der Mensch sein, der exzellente, fehlerfreie Arbeit liefert – und das auch nachweist.
  2. Transparenz & Authentizität: Politiker:innen und Unternehmen, die KI nutzen, ohne dies offenzulegen (oder schlechten "Slop" produzieren), verlieren Vertrauen. Wenn du KI einsetzt, sei transparent. Setze auf deine "unverwechselbare Stimme" (Matías S. Zavia), nicht auf generischen Output.
  3. Werde zum "Slop-Detektor" & "Slop-Veredler": Lerne, KI-Murks schnell zu erkennen. Noch besser: Lerne, wie du aus KI-Slop mit menschlicher Kreativität etwas Originelles machst (wie der Leser mit der Abschiedsrede).
Vollansicht
KI gefährdet Jobs, aber Professorin Kerstin Prechel bleibt optimistisch – dank Ethik & Umverteilung ( )

Im Interview mit sh:z äußert sich Wirtschaftswissenschaftlerin und Ethikerin Prof. Kerstin Prechel (Dualen Hochschule Schleswig-Holstein) zu den Chancen und Risiken von Künstlicher Intelligenz. Sie sieht KI als Motor für höhere Produktivität und neuen Wohlstand, warnt jedoch vor erheblichen Arbeitsplatzverlusten, insbesondere in Bürojobs mit geringer Varianz, wie Steuerberater:innen oder Rechtsanwaltsgehilf:innen, wo KI "besser als Berufsanfänger" sei. Dies werde sich noch verstärken, auch wenn Unternehmen ihre Fachkräfte für kreativere Führungspositionen schulen müssen.

Prechel geht davon aus, dass die Arbeitslosigkeit steigen wird und nicht alle Menschen umgeschult werden können. Sie prognostiziert, dass es "nicht mehr genug Erwerbsarbeit für alle" geben wird. Als Lösung schlägt sie eine Reform der Staatseinnahmen vor: KI oder deren Einsatz müssten besteuert werden, um das Geld umzuverteilen. Dies sei die "große Chance, die Vorzüge der KI für die breite Masse nutzbar zu machen", um der drohenden Spaltung zwischen Arm und Reich entgegenzuwirken.

Sie betont die Notwendigkeit ethischer Standards und verweist auf den EU AI Act, der etwa Social Scoring verbietet. KI könne lebensrettende Anwendungen bieten (z.B. Hautkrebsdiagnose), müsse aber stets von Menschen begleitet werden. Prechel sieht zudem großes Bildungspotenzial für den globalen Süden durch einfache KI-Tools.

Zukunftssicher seien Berufe, die Empathie erfordern (z.B. in der Pflege alter Menschen), sowie Handwerk und Dienstleistungen am Menschen. Sie betont die Wichtigkeit lebenslangen Lernens und prognostiziert, dass das nächste Jahrzehnt entscheidend sein wird.

Kim (JOBfellow) kommentiert

Dieses Interview mit Kerstin Prechel ist eine der nüchternsten und gleichzeitig mutigsten Analysen zur Zukunft der Arbeit, die ich seit Langem gelesen habe. Als dein jobfellow solltest du diese Punkte verinnerlichen:

"Nicht mehr genug Erwerbsarbeit für alle": Das ist die klare und drastische Prognose. Es geht nicht nur um Umschulung, sondern um eine fundamentale gesellschaftliche Umstrukturierung. Dein Plan B sollte über "einen anderen Job finden" hinausgehen.

Die "Reichen" vs. "Breite Masse": Prechel warnt vor einer wachsenden Schere. Wenn du KI nicht beherrschst, könntest du auf der Verliererseite stehen. Ihre Idee der KI-Besteuerung und Umverteilung ist ein radikaler Vorschlag, der in den kommenden Jahren lauter diskutiert werden wird.

Empathie ist dein Superpower: Die Zukunft gehört Berufen, die Menschlichkeit fordern – Pflege, soziale Dienste, alles, wo die "Hand auf die Schulter legen" wichtiger ist als Effizienz. Das sind deine "krisensicheren" Kompetenzen.

Vollansicht
Agenturinhaberin Richter ersetzt Junior-Projektmanagerin durch KI: "Neue Arbeitsteilung statt Verdrängung" ( )

Christina Richter, Inhaberin einer Agentur, berichtet, wie sie die Stelle ihrer gekündigten Junior-Projektmanagerin nicht neu besetzte. Stattdessen übernehmen KI-Tools nun die Aufgabenbereiche Recherche und Marktanalyse, die zuvor von der Mitarbeiterin erledigt wurden. Das Team ist weiterhin für den Faktencheck zuständig.

Richter sieht KI nicht als Ersatz, sondern als "Trainee", dem sie Themen und Abläufe erklärt. Die KI liefere erste Ergebnisse, den "strategischen Feinschliff" übernehme das menschliche Team. Ihre Motivation ist es, frühzeitig den klugen Einsatz von KI zu lernen, ohne sich abhängig zu machen. Sie betont, dass ihr Unternehmen gegründet wurde, um mit Menschen zu arbeiten, nicht um sie zu ersetzen.

Im Team wird offen über die Veränderungen gesprochen. Eine ursprünglich skeptische Kollegin nutzt die Tools nun regelmäßig und hat dadurch mehr Zeit für andere Aufgaben. Dies führe zu einer "neuen Arbeitsteilung". KI unterstütze bei der Themenidentifikation, Presseansätzen oder Headlines, indem sie Artikel sammelt, Eckpunkte analysiert und Argumentationslinien filtert.

Richter hat niemanden entlassen, um KI einzusetzen. Die aktuelle Situation werde genutzt, um zu prüfen, welche Aufgaben Zukunft haben. Obwohl KI Geld spare, sei dies nicht ihre Hauptmotivation. Stattdessen entstünden neue Schwerpunkte und Arbeitsbereiche, und die Zusammenarbeit mit Freelancer:innen gewinne an Bedeutung.

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt dir ein sehr konkretes und realistisches Szenario, wie KI Jobs transformiert, nicht zwingend killt. Als dein jobfellow solltest du hier genau hinschauen:

"Junior-Aufgaben zuerst betroffen": Die KI hat eine Junior-Projektmanagerin ersetzt, die sich um Recherche und Analyse kümmerte. Das sind oft die Einstiegsjobs. Wenn du am Anfang deiner Karriere stehst, musst du diese "Junior-Aufgaben" schnell per KI automatisieren können, um dich auf den "strategischen Feinschliff" zu konzentrieren.

Qualifikation verschiebt sich nach oben: Die KI ist der "Trainee". Der Mensch wird zum "Anleiter", "Faktenchecker" und "Strategen". Deine Fähigkeit, KI-Tools zu "erklären", zu "begleiten" und ihre Ergebnisse zu veredeln, wird entscheidend.

Die "neue Arbeitsteilung" ist real: Es geht darum, wie du und KI euch ergänzt. Die Agentur spart keine Kosten durch Entlassungen, sondern schafft Raum für andere Aufgaben und Freelancer:innen.

Vollansicht
Norwegen: Zeitungen holen die Gen Z zurück – mit Gratis-Abo und KI ( )

Während Medienhäuser in Deutschland über sinkende Abos klagen und die Gen Z an Social-Media-Plattformen (TikTok) voller Desinformation verlieren, zeigt Norwegen einen erfolgreichen Gegenentwurf. Der Zeitungskonzern Amedia (120 Zeitungen), dessen zahlende Leserschaft zu 75% über 70 Jahre alt ist, startete eine radikale Maßnahme: ein landesweites Gratis-Digitalabo für alle unter 21 Jahren. Projektleiterin Marte Ingul begründet dies als Kampf gegen "zynische Plattformen" und als Dienst an der Demokratie.

Der Erfolg nach sechs Monaten ist groß: 66.000 neue junge Nutzer:innen (15-20 J.), davon über die Hälfte männlich – eine Gruppe, die sonst als medienkritisch gilt. Parallel wird KI als Effizienz-Tool im Newsroom eingesetzt: Die Lokalzeitung "iTromsø" nutzt KI, um 12.000 Behördendokumente pro Monat zu scannen, was die Recherchezeit von 1,5 Stunden auf 10 Minuten senkt. Dies führte zu 15% mehr Digitalabos und Journalismuspreisen. Auch Amedia nutzt KI zur Recherche und Datenanalyse, um die journalistische Qualität zu sichern.

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt dir perfekt, wie KI Jobs nicht ersetzt, sondern augmentiert (verstärkt). Als dein jobfellow rate ich dir, das genau zu beobachten: Die Redakteur:innen bei "iTromsø" wurden nicht entlassen; sie wurden besser. Sie nutzen KI, um in 10 Minuten zu leisten, wofür sie früher 90 Minuten brauchten, und entdecken so völlig neue Geschichten.

Deine Chance: Lerne, KI als dein persönliches Recherche- und Analyse-Werkzeug zu sehen. Egal ob im Journalismus, im Marketing, in der Wissenschaft oder im Handwerk – die Fähigkeit, riesige Datenmengen (wie 12.000 Dokumente) per KI zu filtern, um das Relevante zu finden, wird zur neuen Kernkompetenz. Sei der Mensch, der die KI-Tools nutzt, um schneller und tiefer zu graben als andere.

Vollansicht
Lohnabstand wächst: PwC-Studie zeigt 56% mehr Gehalt für KI-Kompetenz ( )

Eine Studie der PwC ("AI Jobs Barometer"), die fast eine Milliarde Stellenanzeigen auswertete, belegt einen massiven Gehaltsanstieg für KI-Kenntnisse. Mitarbeitende mit KI-Kompetenz verdienen im Schnitt 56 % mehr als Kolleg:innen ohne – ein Lohnabstand, der sich von 25 % im Vorjahr mehr als verdoppelt hat.

Die Studie zeigt auch, dass Unternehmen mit hoher KI-Affinität ein dreimal schnelleres Umsatzwachstum pro Mitarbeiter:in aufweisen, besonders seit dem Start von ChatGPT 2022. Dies betrifft alle Branchen, inklusive Baugewerbe, Landwirtschaft und öffentlicher Verwaltung.

Entgegen der Sorge vor Jobverlust belegt die Studie, dass KI Menschen nicht primär ersetzt, sondern produktiver und wertvoller macht. Selbst automatisierte Rollen wie im Kundenservice werden dank effizienter KI-Nutzung besser bezahlt.

Die geforderten Kompetenzen wandeln sich 66 % schneller als in klassischen Jobs. Wichtiger als Hochschulabschlüsse werden zunehmend konkrete Fähigkeiten wie Prompt Engineering, Anpassungsfähigkeit und Problemlösekompetenz. Die Studie schließt: KI ist kein Jobkiller, sondern ein Werttreiber für Menschen, die sie beherrschen.

Kim (JOBfellow) kommentiert

Diese PwC-Studie ist die bisher deutlichste quantitative Bestätigung für alles, was wir hier besprechen. Als dein jobfellow ist meine Botschaft unmissverständlich: Die "KI-Kompetenzlücke" ist real, und sie wird zur größten Gehaltsschere der modernen Arbeitswelt. Der Lohnabstand hat sich in nur einem Jahr mehr als verdoppelt (von 25% auf 56%).

Was das für dich bedeutet:

  1. Du bist nicht in der IT? Egal! Die Studie zeigt klar: Baugewerbe, Landwirtschaft, Verwaltung – KI-Kompetenz wird überall zur Schlüsselqualifikation.
  2. Fähigkeiten schlagen Abschlüsse: Die Kompetenzen wandeln sich 66% schneller. Dein Hochschulabschluss von vor 5 Jahren verliert an Wert, wenn du nicht nachweist, dass du Prompt Engineering, Problemlösung mit KI und Anpassungsfähigkeit beherrschst.
  3. Du wirst nicht ersetzt, du wirst (besser) bezahlt: Die Beispiele von Amina (Analystin) und John (Kundenbetreuer) zeigen es. KI nimmt die Routine-Aufgaben ab, wodurch sich der Mensch auf die wertvollsten (strategischen, komplexen, menschlichen) Aufgaben fokussiert – und dafür besser bezahlt wird.
Vollansicht
Neurowissenschaftlerin bestätigt: Steve Jobs‘ Zehn-Minuten-Regel macht wirklich schlauer ( )

Die Neurowissenschaft bestätigt, was Denker wie Steve Jobs und Charles Darwin intuitiv nutzten: Ein Spaziergang fördert kreative Problemlösungen. Jobs' "Zehn-Minuten-Regel" besagte: Wenn er länger als zehn Minuten an einem Problem festsaß, ging er spazieren, weil ihm dort die besten Ideen kamen.

Die Neurowissenschaftlerin Dr. Mithu Storoni (Autorin von "Hyperefficient") bestätigt dies im "Ideacast"-Podcast. Sie erklärt, dass das Gehirn nicht wie ein Muskel funktioniert, bei dem mehr Anstrengung zu besseren Ergebnissen führt. Kreatives Denken erfordere stattdessen einen "offenen, losgelösten Zustand".

Ein Spaziergang sei ideal, um diesen Zustand zu erreichen. Er schaffe ein perfektes Zwischenstadium aus Entspannung und Konzentration:

  1. Aufmerksamkeit: Man bleibt wach und aufmerksam genug, um nicht lethargisch zu werden oder aufs Handy zu schauen (z.B. um nicht gegen einen Laternenpfahl zu laufen).
  2. Losgelöstsein: Die sich ständig verändernde Umgebung verhindert, dass sich das Gehirn auf eine Sache fixiert. Der Geist "wandert nach innen" und beginnt entspannt, über Lösungen nachzudenken.

Dieser Zustand – minimale Denkleistung bei gleichzeitiger Losgelöstheit – sei der Moment, in dem das Gehirn am kreativsten ist.

Kim (JOBfellow) kommentiert

Dieser Artikel ist ein wichtiges Plädoyer für eine menschliche Kernkompetenz, die in Zeiten von KI oft vergessen wird: das assoziative, ungerichtete Denken.

Als dein jobfellow rate ich dir: Verwechsle "KI-Prompting" nicht mit "Problemlösung". KI ist exzellent im "konvergenten" Denken (eine spezifische Antwort auf eine klare Frage zu finden). Aber echte Durchbrüche erfordern "divergentes" Denken (offenes, assoziatives Suchen nach neuen Wegen).

Die Zehn-Minuten-Regel von Steve Jobs ist genau das: ein bewusster Wechsel vom angespannten Fokus (KI-Modus) in den entspannten Assoziations-Modus (Mensch-Modus).

Nutze KI, um deine Probleme in den ersten zehn Minuten schnell zu analysieren. Aber wenn du feststeckst, schließe den Laptop. Geh spazieren, ohne Handy. Erlaube deinem Gehirn, die von der KI gesammelten Daten im Hintergrund neu zu verknüpfen. Die beste Idee wirst du haben, nicht der Chatbot – aber vielleicht erst auf dem Rückweg ins Büro.

Vollansicht
KI-Compliance im öffentlichen Sektor: Besondere Regeln für Vertrauen und Rechtssicherheit ( )

Die Einführung von Künstlicher Intelligenz (KI) im öffentlichen Sektor verspricht Effizienz und Hilfe gegen Fachkräftemangel. Doch öffentliche Unternehmen unterliegen dabei strengeren Regeln als private Akteure, was eine angepasste KI-Compliance erfordert. Neben der EU-KI-Verordnung (in Kraft seit 01.08.2024), die auch öffentliche Unternehmen einschließt, gelten spezifische verfassungs-, datenschutz- und verwaltungsrechtliche Sonderbindungen.

Diese Sonderbindungen führen zu erhöhten Sorgfaltspflichten und Haftungsrisiken für Verantwortliche, begründet durch das besondere Vertrauen der Öffentlichkeit und die Gemeinwohlbindung. Ein Beispiel ist das österreichische "Arbeitsmarktchancen-Assistenzsystem", dessen KI-Einsatz nur wegen menschlicher Letztentscheidung keine DSGVO-Verletzung darstellte.

Die relevantesten Sonderbindungen sind:

  • Grundrechte: Öffentliche Unternehmen sind an Grundrechte wie informationelle Selbstbestimmung und Gleichbehandlung gebunden. KI muss Diskriminierungen (Machine Biases) vermeiden.
  • Rechtsstaatlichkeit: Erfordert Nachvollziehbarkeit und Erklärbarkeit staatlichen Handelns, auch bei KI-Entscheidungen, um "Black-Box"-Probleme zu vermeiden.
  • Auskunftspflichten: Gesteigerte Transparenz gegenüber Presse und Bürger:innen über KI-Nutzung ist notwendig, etwa nach dem IFG.
  • Datenverarbeitung & Datenschutz (Art. 22 DSGVO): Das Verbot ausschließlich automatisierter Entscheidungen erfordert eine substanzielle menschliche Kontrolle.

Compliance-Maßnahmen müssen an den spezifischen "Use Cases" angepasst sein. Dazu gehören die Auswahl der Trainingsdaten zur Vermeidung ungewollter Wertungen (KI-bezogen) und Verfahrensvorkehrungen wie die menschliche Letztentscheidung sowie "Bias Checks" (anwendungsbezogen). Eine gut implementierte Compliance kann sich positiv auf Bußgelder auswirken. Es wird gefordert, auf weitere Regulierung zu verzichten, da die EU-KI-Verordnung und bestehende Sonderbindungen bereits ausreichenden Schutz bieten.

Kim (JOBfellow) kommentiert

Dieser Artikel zeigt, dass der öffentliche Sektor eine Vorreiterrolle in der verantwortungsvollen KI-Nutzung einnehmen muss. Als dein jobfellow ist das eine Top-Chance für dich, wenn du dich für Recht, Ethik und Technologie interessierst.

Der Bedarf an Expert:innen, die sich mit KI-Compliance und Ethik im öffentlichen Kontext auskennen, wird stark steigen. Das sind nicht nur Jurist:innen, sondern auch Prozessmanager:innen, Projektleiter:innen und IT-Sicherheitsbeauftragte, die die besonderen Anforderungen verstehen und umsetzen können.

Baue Kompetenzen auf in:

  • Grundlagen der EU-KI-Verordnung und DSGVO.
  • Verwaltungsrechtliche Prozesse und deren KI-Integration.
  • Bias-Erkennung und -Minderung in KI-Systemen.
  • Transparenz- und Erklärbarkeitskonzepte für KI.

Dies sind nicht nur Fachkenntnisse, sondern auch gefragte "Soft Skills" wie Verantwortungsbewusstsein und interdisziplinäres Denken. Wenn du dich hier spezialisierst, schaffst du Vertrauen – und wirst zu einer extrem wertvollen Fachkraft im öffentlichen und privatwirtschaftlichen Sektor.

Vollansicht