Claudio Lavenia/Getty Images Entertainment via Getty Images
Inhaltsverzeichnis:
Teilen:
Claudio Lavenia/Getty Images Entertainment via Getty Images
Kate Crawford gehört zu den einflussreichsten Stimmen, wenn es um die gesellschaftliche Dimension von Künstlicher Intelligenz geht. Sie ist keine Ingenieurin, sondern Sozialwissenschaftlerin, Autorin und Mitdenkerin in einem hochtechnologischen Feld. Während viele die Chancen der KI preisen, zeigt Crawford, wo Risiken entstehen – nicht durch Fehlfunktionen, sondern durch Strukturen, die diese Systeme formen.Ihr Fokus: Wie KI Ungleichheiten verstärkt, politische Macht verschiebt und Entscheidungen beeinflusst, die früher dem Menschen vorbehalten waren.
KI ist ein Spiegel gesellschaftlicher Macht
Kate Crawford macht deutlich: Künstliche Intelligenz ist nicht neutral. Ihre Entwicklung, ihr Einsatz und ihre Wirkung hängen direkt mit Macht, Kontrolle und gesellschaftlichen Hierarchien zusammen. Daten, mit denen KI-Systeme trainiert werden, spiegeln unsere Welt wider – mitsamt Vorurteilen, Ausschlüssen und Ungleichverhältnissen.
Wird ein System auf fehlerhaften oder unausgewogenen Daten trainiert, produziert es Ergebnisse, die reale Schäden verursachen können. Beispiele gibt es viele: automatisierte Jobfilter, die Bewerbungen diskriminieren, Kreditbewertungssysteme mit versteckter Voreingenommenheit oder Gesichtserkennung mit eingeschränkter Zuverlässigkeit bei bestimmten Gruppen.
Crawford warnt davor, solche Systeme unreflektiert einzusetzen. Denn sie automatisieren nicht nur Prozesse – sie standardisieren auch Ungleichheit.
Infrastruktur hinter der Technologie
Hinter jeder KI steckt eine reale Infrastruktur: Serverfarmen, Energieverbrauch, Rohstoffe, globale Lieferketten und menschliche Arbeit. Crawford weist darauf hin, dass diese physischen Grundlagen oft übersehen werden. KI wirkt digital, ist aber fest in analoge Strukturen eingebettet. Sie erzeugt CO₂-Emissionen, braucht seltene Erden, nutzt menschliche Arbeitskraft in unterbezahlten Labeling-Jobs.
Diese Verflechtung von Hightech mit Ausbeutung ist laut Kate Crawford eines der zentralen Probleme der Branche. Wer über KI spricht, muss deshalb auch über Ökologie, Arbeitsrechte und globale Gerechtigkeit sprechen.
Kate Crawford: Vertrauen sinkt – Sorgen nehmen zu
Viele Menschen erkennen inzwischen die Schattenseiten der KI. Eine aktuelle Befragung zeigt, dass 56 % der Verbraucher sich vor Identitätsdiebstahl und Desinformation durch KI sorgen. Weitere zentrale Ängste betreffen Cyberangriffe (52 %), gefälschte Inhalte (46 %) sowie automatisierte Geschäftsentscheidungen (45 %).
Diese Werte spiegeln wider, was Crawford seit Jahren betont: KI ist keine abstrakte Technologie, sondern ein Eingriff in soziale Strukturen. Ihre Wirkung reicht tief – und sie wird zunehmend kritisch gesehen.
KI formt Machtverhältnisse neu
Ein zentrales Anliegen von Kate Crawford ist die politische Rolle der Technologieunternehmen. Konzerne wie Google, Amazon oder Microsoft besitzen die Rechenzentren, Plattformen und Daten, auf denen KI-Systeme basieren. Damit kontrollieren sie nicht nur digitale Dienste, sondern auch gesellschaftliche Prozesse: Kommunikation, Information, Konsum und zunehmend auch Bildung und Verwaltung.
Die wachsende Reichweite generativer KI verstärkt diesen Trend. Laut einer aktuellen Einschätzung wird generative KI in den nächsten fünf Jahren den größten Einfluss auf Social-Media-Unternehmen (72 %), Suchmaschinenbetreiber (71 %) und Wissenschaft (66 %) haben – aber auch Medien, Banken, Militär und Regierung stehen unter Einfluss. Sogar für Politik und Strafverfolgung erwarten viele einen spürbaren Wandel.
Crawford warnt: Diese Entwicklungen dürfen nicht allein von privaten Akteuren gesteuert werden. Sie fordert demokratische Kontrolle, transparente Regeln und staatliche Verantwortung bei der Gestaltung digitaler Infrastrukturen.
Kate Crawford: Entscheidungssysteme brauchen klare Grenzen
Besonders kritisch sieht Kate Crawford den Einsatz von KI in sensiblen Bereichen wie Justiz, Gesundheitswesen oder Verwaltung. Wenn Algorithmen über Kredite, medizinische Eingriffe oder polizeiliche Maßnahmen mitentscheiden, entstehen Abhängigkeiten – oft ohne ausreichende Kontrolle.
Viele dieser Systeme gelten als „Black Boxes“ – sie liefern Ergebnisse, ohne dass Nutzer nachvollziehen können, wie diese zustande kommen. Für Crawford ist das gefährlich: Technologie muss erklärbar und überprüfbar sein. Entscheidungen mit gesellschaftlicher Tragweite dürfen nicht an Maschinen delegiert werden, die nach undurchsichtigen Regeln arbeiten.
Ein anderes Verständnis von Fortschritt
Kate Crawford stellt die technologische Fortschrittslogik infrage. Sie warnt vor der Illusion, dass mehr Technologie automatisch bessere Lösungen bedeutet. Nicht jede Aufgabe sollte automatisiert werden, nicht jedes Problem lässt sich mit Daten lösen. Für sie ist der wichtigste Fortschritt der kritische Umgang mit den Mitteln – nicht ihre Maximierung.
Sie fordert einen neuen Diskurs: weniger Technikbegeisterung, mehr gesellschaftliche Verantwortung. Denn letztlich ist KI nicht das Ziel – sondern ein Werkzeug. Und wie wir es einsetzen, bestimmt, welche Zukunft wir schaffen.