Direkt zum Inhalt

Softgarden Bewerbungsreport 2025: KI im Recruiting – Hype vs. Realität und die "Mensch-Falle"

Der Softgarden Bewerbungsreport 2025, basierend auf einer Online-Umfrage unter 2.629 Bewerbenden (Herbst 2024), untersucht die Akzeptanz von KI im Recruiting. Die Ergebnisse zeigen eine große Kluft zwischen der Bereitschaft zur KI-Nutzung und der tatsächlichen Anwendung sowie eine klare Präferenz für menschliche Interaktion.

Die wichtigsten Ergebnisse:

  • KI-Nutzung durch Bewerbende: Die Bereitschaft ist hoch (62,5 % würden KI für Anschreiben nutzen, 55,7 % für Lebensläufe), aber die tatsächliche Nutzung ist noch gering (nur 13,9 % haben KI für Anschreiben genutzt, 8,3 % für Lebensläufe). Hauptgrund für die Nicht-Nutzung ist Unsicherheit über die Qualität (62,2 %) und mangelndes Vertrauen in die eigenen Fähigkeiten (46,2 %).
  • KI-Nutzung durch Arbeitgeber: Die Akzeptanz ist gering. Nur 28,1 % der Bewerbenden fänden es akzeptabel, wenn Arbeitgeber KI zur Vorauswahl nutzen (52,3 % lehnen dies ab). Wenn KI genutzt wird, fordern 84,9 % Transparenz.
  • Der "Mensch-Faktor": Bewerbende bevorzugen immer den menschlichen Kontakt. Chatbots schneiden bei der Candidate Experience deutlich schlechter ab als menschliche Ansprechpartner (z.B. bei der Terminvereinbarung: 2,77 vs. 4,25 Sterne). Der persönliche Kontakt (Vorstellungsgespräch vor Ort, Telefonat) ist der wichtigste Treiber für eine positive Erfahrung.
  • Wunsch nach "Mensch-KI-Kollaboration": Das ideale Szenario für Bewerbende ist eine Kombination: KI filtert vor, aber Menschen treffen die finale Entscheidung (58,4 % Zustimmung). Reine KI-Entscheidungen werden massiv abgelehnt (nur 6,0 % Zustimmung).
Der kritische Kim-Blick:

Der Report liefert wertvolle Daten, hat aber Schwächen in der Interpretation:

  1. Die "Nutzungs-Lücke" wird unterschätzt: Der Report konstatiert die Lücke zwischen Bereitschaft und Nutzung (62,5 % vs. 13,9 %), analysiert aber nicht tief genug, warum die Hürden (Qualitätsunsicherheit) so hoch sind. Liegt es an schlechten Tools oder mangelnder "AI Literacy"?
  2. Einseitige "Mensch-Präferenz": Die starke Ablehnung von Arbeitgeber-KI (52,3 %) könnte auch auf Unwissenheit beruhen. Der Report hinterfragt nicht, ob Bewerbende wissen, dass menschliche Recruiter oft voreingenommener (biased) sind als gut trainierte KI. Die "romantische" Sicht auf den menschlichen Recruiter wird nicht kritisch beleuchtet.
  3. Fokus auf "Komfort" statt "Chancengleichheit": Die Bewertung von Chatbots vs. Menschen fokussiert stark auf den Komfort ("Candidate Experience"). Wichtigere Fragen, wie z.B. ob KI die Chancengleichheit erhöht oder verringert, werden kaum thematisiert.
Kim prophezeit

Basierend auf der "Nutzungs-Lücke" und der "Mensch-Präferenz" wage ich diese Prognose:

  1. Die "KI-Kompetenz-Klasse" entsteht (2026/27): Die Lücke zwischen denen, die KI nutzen wollen, und denen, die es können, wird sich schließen. Es wird eine neue Klasse von Bewerbern geben, die KI meisterhaft für "Hyper-Personalisierung" ihrer Unterlagen nutzt. Wer das nicht kann, wird im Stapel untergehen. Die Nutzung von KI im Bewerbungsprozess wird vom "Cheat" zum Standard-Skill.
  2. Das "Recht auf einen Menschen" wird zum Standard: Die starke Ablehnung reiner KI-Entscheidungen wird dazu führen, dass Unternehmen (auch getrieben durch die EU-KI-Verordnung) garantieren müssen, dass am Ende ein Mensch auf die Auswahl schaut ("Human-in-the-Loop"). Dies wird zum wichtigen Employer-Branding-Faktor ("Wir stellen Menschen ein, keine Algorithmen").
  3. Der "Chatbot-Frust" führt zu neuen Lösungen: Die schlechte Bewertung von Chatbots wird eine neue Generation von "empathischen KI-Agenten" hervorbringen, die nicht nur Termine vereinbaren, sondern echte, hilfreiche Dialoge führen können. Bis dahin werden Unternehmen, die im Recruiting zu früh auf billige Bots setzen, Top-Talente durch eine schlechte Candidate Experience verlieren.
Kim (JOBfellow) kommentiert

Dieser Report zeigt: Wir sind in einer Übergangsphase. Für dich als Bewerber bedeutet das:

  1. Schließe deine eigene "Nutzungs-Lücke": Die Unsicherheit bei der Qualität (62,2 %) ist dein Feind. Lerne professionelles Prompting. Nutze KI nicht, um Arbeit zu vermeiden, sondern um deine Bewerbung zu verbessern (z.B. als Lektor, Ideengeber, Strukturierer). Wer KI souverän nutzt, hat einen Vorteil gegenüber den 86%, die es noch nicht tun.
  2. Fordere den "Menschen" ein, aber nutze die KI: Wenn du dich bewirbst, erwarte und fordere menschlichen Kontakt im späteren Prozess. Aber sei dir bewusst, dass am Anfang oft eine (KI-)Vorauswahl steht. Optimiere deine Unterlagen also so, dass sie beide überzeugen: den Algorithmus (Keywords, Struktur) und den Menschen (Persönlichkeit, Motivation).
  3. Sei skeptisch bei "KI-Entscheidungen": Wenn ein Unternehmen intransparent KI zur Auswahl nutzt (was 84,9 % ablehnen), ist das ein Warnsignal für die Unternehmenskultur. Frage im Gespräch ruhig nach, wie der Auswahlprozess ablief.
Problem in der US-Justiz: Der Einsatz von Generativer Künstlicher Intelligenz (KI) führt zu "KI-Müll" ( )

Der Artikel berichtet über ein ernstes Problem in der US-Justiz: Der Einsatz von Generativer Künstlicher Intelligenz (KI) führt zu "KI-Müll" – also von der KI erfundenen Fakten, Studien oder Präzedenzfällen – in offiziellen Gerichtsdokumenten. Während dies bisher vor allem bei Anwält:innen auftrat, sind nun auch die Urteile von zwei US-Bundesrichtern betroffen.

Der Vorfall

Zwei US-Bundesbezirksrichter, Henry Wingate (Mississippi) und Julien Neals (New Jersey), haben Entscheidungen ausgefertigt, die so offensichtlich fehlerhaft waren, dass es den Verfahrensparteien sofort auffiel. Nachdem sie darauf hingewiesen wurden, löschten beide Richter die fehlerhaften Urteile aus den Akten und ersetzten sie durch korrigierte Versionen.

Die Reaktion: Keine Verantwortung, Schuldzuweisungen

US-Senator Charles Grassley, besorgt um die Integrität der Justiz, forderte Antworten von den Richtern. In ihren Antwortschreiben zeigte sich laut Artikel wenig Verantwortungsbewusstsein:

  • Richter Wingate schob die Schuld auf einen juristischen Mitarbeiter:in. Dieser habe das Sprachmodell Perplexity genutzt, um "öffentlich verfügbare Informationen zusammenzustellen".
  • Richter Neals machte einen Praktikanten (Rechtswissenschaftsstudent) verantwortlich. Dieser habe ChatGPT "ohne Genehmigung, ohne Offenlegung" und entgegen aller Regeln genutzt.

Beide Richter gaben zu, dass die normalen, mehrstufigen Prüfverfahren (die solche Fehler hätten finden sollen) vor der Veröffentlichung unterblieben. Den Grund dafür nannten sie jedoch nicht.

Das Kernproblem: Fehlende und schwammige Regeln

Der Vorfall offenbart ein strukturelles Problem:

  1. Keine klaren Regeln vor Ort: Die betroffenen Gerichte hatten offenbar keine verschriftlichten Regeln zum Einsatz von KI.
  2. "Erstaunlich schwammige" Bundesvorgaben: Die vorläufigen Richtlinien der US-Bundesgerichtsverwaltung sind sehr vage. Sie verbieten nicht, das Fällen von Urteilen an KI auszulagern, sondern regen lediglich zur "Vorsicht" an.
  3. Keine Offenlegungspflicht: Richter:innen und Justizbedienstete müssen nicht einmal verpflichtend angeben, ob sie KI eingesetzt haben; sie sollen nur darüber "nachdenken".

Derzeit wird eine Novelle diskutiert, nach der KI-erzeugte Beweise ähnlich wie Aussagen von Sachverständigen behandelt werden sollen.

Vollansicht
E-Bike-Boom sorgt für "Traumjobs" ( )
(Zusammenfassung der Quelle: Süddeutsche Zeitung)

Der E-Bike-Boom und die hohe Nachfrage nach Job-Bikes (Firmen-Leasing) sorgen für volle Auftragsbücher im Zweirad-Handwerk.

  • Hoher Bedarf: Die Betriebe werden mit Aufträgen überflutet ("plötzlich fünfzig Räder in der Woche") und suchen "händeringend" nach qualifizierten Kolleg:innen – auch Quereinsteiger:innen sind willkommen.
  • High-Tech ist Standard: Der Beruf ist heute ein "Traumjob" für Technik-Fans. E-Bikes machen den "Löwenanteil" der Arbeit aus.
  • Lebenslanges Lernen: Du lernst nie aus. Ständige Weiterbildung (z.B. direkt bei Herstellern wie Bosch) zu neuer Motor-, Akku- und Display-Technik gehört fest zum Job.
  • Sinnvolle Arbeit: Du sorgst für Sicherheit im Verkehr. Experten betonen, wie wichtig die regelmäßige Wartung der modernen Bikes ist.
Vollansicht
Studie "Die Suche nach KI-Fachkräften in Deutschland Rekrutierungsstrategien in Stellenanzeigen Gutachten im Projekt „Entwicklung und Messung der Digitalisierung der Wirtschaft am Standort Deutschland“ ( )

Kerninhalte der Studie:

Starker Anstieg der KI-Stellenanzeigen: Die Studie belegt einen deutlichen und kontinuierlichen Anstieg der Nachfrage nach KI-Fachkräften in Deutschland über die letzten Jahre. Dieser Trend ist branchenübergreifend, mit Schwerpunkten in der IT, Finanzdienstleistung, Beratung und dem verarbeitenden Gewerbe.

Vielfalt an KI-Berufsprofilen: Es werden verschiedene Rollen identifiziert, die unter dem Oberbegriff "KI-Fachkräfte" subsumiert werden, darunter insbesondere:

  • Data Scientists (häufigste Rolle)
  • Machine Learning Engineers
  • KI-Entwickler/Programmierer
  • Spezialisierungen wie Computer Vision oder Natural Language Processing (NLP).
  • Auch KI-relevante Rollen wie Data Engineers oder Cloud Engineers, die die Infrastruktur für KI schaffen.

Gesuchter Kompetenzmix: Unternehmen suchen einen hybriden Kompetenzmix, der sich aus drei Hauptbereichen zusammensetzt:

  • Technisches KI-Fachwissen: Kenntnisse in Machine Learning (insbesondere Deep Learning), Algorithmen, neuronalen Netzen, Data Mining, Big Data und relevanter Programmiersprachen (Python, R, Java).
  • Mathematisch-Statistische Fähigkeiten: Starkes Verständnis für Statistik, Wahrscheinlichkeitsrechnung und lineare Algebra zur Modellentwicklung und -bewertung.
  • Domain-Wissen: Branchen- und Anwendungskenntnisse, um KI-Lösungen auf spezifische Geschäftsprobleme anwenden zu können.

Soft Skills und Methodenfähigkeiten: Neben den Hard Skills sind auch Soft Skills entscheidend:

  • Problemlösungskompetenz und analytisches Denken.
  • Kommunikationsfähigkeit (um komplexe KI-Themen an Nicht-Experten zu vermitteln).
  • Teamfähigkeit und Projekterfahrung.
  • Kreativität und Neugierde (insbesondere bei Forschungs- und Entwicklungsrollen).

Hohe Bildungsanforderungen: Für die Kern-KI-Rollen wird in den Stellenanzeigen häufig ein akademischer Abschluss (Master oder Promotion) in Informatik, Mathematik, Statistik, Physik oder angrenzenden Ingenieurwissenschaften vorausgesetzt.

Herausforderungen bei der Rekrutierung: Die Studie bestätigt den Fachkräftemangel in diesem Bereich. Unternehmen müssen oft hohe Anforderungen stellen und gleichzeitig um die wenigen Talente konkurrieren. Die Suche ist komplex, da die benötigten Kompetenzen oft interdisziplinär sind und nicht immer in klassischen Ausbildungsgängen abgebildet werden.

Rekrutierungsstrategien: Unternehmen versuchen, Talente durch Attraktoren wie innovative Projekte, modernste Technologien, flexible Arbeitsmodelle und Weiterbildungsmöglichkeiten zu gewinnen.

Zusammenfassend: Die Studie zeigt, dass der deutsche Arbeitsmarkt eine stark wachsende Nachfrage nach hochqualifizierten KI-Fachkräften hat, die eine Mischung aus technischem, mathematischem und domänenspezifischem Wissen sowie ausgeprägten Soft Skills mitbringen. Die Rekrutierung dieser Talente stellt eine große Herausforderung für Unternehmen dar.

Vollansicht