KI ist keine Technologie, sondern eine Machtfrage
Hannah Ruschemeier analysiert KI als eine soziotechnische Entwicklung und warnt vor der privatwirtschaftlichen Hoheit über diese Technologie, die eine neue Form der Machtausübung darstellt. KI basiert auf der Ausbeutung von Massendaten, Infrastrukturen und menschlicher Arbeit (oft im globalen Süden unter prekären Bedingungen). Der ökonomische Nutzen liegt allein bei den Betreibern, während die Entwicklung auf systematischen Rechtsverstößen (Urheberrecht, Datenschutz) und einem massiven Ressourcenverbrauch beruht.
Die Macht der KI manifestiert sich auf mehreren Ebenen:
- Rechtsstaatliche Macht: Die strukturelle Ignoranz von Rechtsvorgaben (z.B. DS-GVO bei Microsoft 365) untergräbt die Rechtsbindung.
- Vorhersagemacht: Prädiktive Analytik ermöglicht die Ableitung sensibler Informationen, höhlt die Privatsphäre aus und stellt ein nationales Sicherheitsrisiko dar.
- Epistemische Macht: Algorithmen kontrollieren, welche Informationen wahrgenommen und als Wissen validiert werden.
- Ökonomische Macht: Globale Tech-Firmen dominieren die Entwicklung (siehe Stanford AI Index). Die notwendigen Milliardeninvestitionen (z.B. OpenAIs Stargate-Projekt) zwingen zur Fokussierung auf skalierbare, kommerzielle Anwendungen, was den Markt für kleinere Anbieter verschließt.
Ruschemeier kritisiert das etablierte "Innovations-Narrativ", das gegen Regulierung eingesetzt wird und den Mythos eines KI-Wettrennens befeuert. Dies verenge den Blick auf technische Parameter und ignoriere soziale und ökologische Kosten. Sie fordert eine informierte Debatte darüber, wer von KI profitiert, und warnt vor "De-Skilling" und der Flut billiger, schlechter Texte ("AI Slop"). LLMs sollten nicht als Wahrheitsfinder, sondern kritisch als Werkzeuge (z.B. "Zero-Shot-Translator") genutzt werden, wobei die Quellenkritik immer wichtiger wird.
Der Artikel liefert eine brillante, längst überfällige Machtanalyse, hat aber blinde Flecken:
- Fehlende Alternative: Die Kritik ist stark, aber es fehlt eine konkrete Skizze, wie eine "gemeinwohlorientierte KI-Infrastruktur" jenseits von Big Tech praktisch aussehen und finanziert werden könnte.
- Unterschätzung der Open-Source-Bewegung: Die These, dass kleinere Anbieter "keine Chance" haben, ignoriert die Dynamik der Open-Source-Modelle (z.B. Llama), die zumindest eine gewisse Demokratisierung ermöglichen.
- Fokus auf Wissenschaft/Lehre: Der zweite Teil verengt den Blick stark auf den akademischen Bereich, obwohl die beschriebenen Machtfragen (Datenextraktion, prekäre Arbeit) die gesamte Gesellschaft betreffen.
Dieser Artikel ist eine systemkritische Pflichtlektüre, die dein Verständnis von KI radikal verändern sollte. Als dein jobfellow rate ich dir:
- Werde zum Machtanalytiker: Frage bei jedem KI-Tool nicht nur "Was kann es?", sondern "Wem gehört es? Wessen Daten nutzt es? Wer profitiert?". Verstehe, dass du dich in ein Abhängigkeitsverhältnis zu US-Konzernen begibst.
- Hinterfrage das "Innovations-Narrativ": Lass dich nicht von Buzzwords blenden. Wenn dein Unternehmen KI einführt, frage kritisch: Geht es um echte Verbesserung oder nur um Kostensenkung und Effizienz auf Kosten der Qualität oder der Mitarbeiter?
- Bekämpfe "De-Skilling": Die Gefahr, Fähigkeiten zu verlieren, ist real. Nutze KI als Werkzeug, aber delegiere nicht dein kritisches Denken, deine Kreativität oder deine Urteilsfähigkeit.
- Meistere die Quellenkritik: In einer Welt voller "AI Slop" ist deine Fähigkeit, Informationen zu verifizieren, Fakten zu checken und Qualität zu erkennen, deine wichtigste Währung.