Diesmal keine Antwort der, sondern Aussagen über KI
Marcel Fratzscher ZEIT 24. April 2026
Die KI-Gefahr droht nicht nur durch Fakes und Jobverlust, sondern durch eine neue Machtökonomie. Es droht ein Kipppunkt für unsere Gesellschaft. Was jetzt geschehen muss.
Künstliche Intelligenz bedroht die Demokratie, aber anders als gedacht
Der größte Irrtum in der Debatte über künstliche Intelligenz (KI) ist die Annahme, es gehe vor allem um Innovation, Produktivität und Wettbewerbsfähigkeit. Das ist auch ein wichtiger Teil und KI bietet riesige Chancen – um dies vorab klar zu sagen. Aber es geht auch, und in erster Linie, um Macht: Wer bestimmt künftig über zentrale Ressourcen moderner Gesellschaften? Darin liegt eine der größten Gefahren für unsere liberale Demokratie.Nicht die KI selbst bedroht die Demokratie, sondern die politische Ökonomie ihrer Entwicklung – und das Tempo, mit dem sie in Kriegsführung, Verwaltung, Arbeitswelt, Finanzmärkte und Kommunikation eindringt. Wenn sich KI-Ressourcen bei wenigen privaten Akteuren konzentrieren, dann verschiebt sich Macht aus demokratisch kontrollierten Räumen in intransparente Sphären. Wer KI kontrolliert, kontrolliert Märkte, Informationsflüsse und staatliche Handlungsfähigkeit.
Einige Tech-Milliardäre stellen die Demokratie offen infrage und nehmen Einfluss auf die Politik. So sagt etwa Peter Thiel, dessen Ideologie ich in einer früheren Kolumne analysiert habe: »Ich glaube nicht länger, dass Freiheit und Demokratie miteinander vereinbar sind.«
Regulierung von KI allein wird künftig nicht mehr reichen, weil private Unternehmen staatlichen Behörden technologisch oft weit voraus sind. Das waren neue Technologien zwar fast immer, aber Tempo und Dominanz der KI schaffen ein unüberbrückbares Ungleichgewicht zwischen Staat und privaten KI-Eigentümern. Genau hier liegt das demokratische Risiko: Wenn Parlamente, Gerichte und Aufsichtsbehörden die Systeme, die sie kontrollieren sollen, nicht mehr verstehen, prüfen oder wirksam begrenzen können, kippt das Machtverhältnis zwischen Staat und Wirtschaft. [..]
Die vierte Gefährdung ist der Kontrollverlust demokratischer Institutionen. Auch hier lohnt Nüchternheit statt Alarmismus. Die akute Gefahr für die Demokratie geht von Systemen aus, die in hochrelevante Bereiche eingebaut werden, ohne dass ihre systemischen Risiken institutionell beherrscht werden. Wer KI in zentralen staatlichen und gesellschaftlichen Bereichen integriert, ohne robuste Aufsicht, Haftung und menschliche Letztentscheidung sicherzustellen, verlagert Verantwortung in Blackboxes. Kontrollverlust beginnt, wenn Menschen zwar formal »im Loop« bleiben, praktisch aber nur noch vorselektierte Optionen in Sekundenbruchteilen abnicken. Genau deshalb war die Entscheidung von Anthropic, autonome tödliche Anwendungen des US-Kriegsministeriums* ohne menschliche Aufsicht abzulehnen, politisch so aufschlussreich: Das Problem ist nicht nur, was ein Modell kann, sondern, wer es in welchem Kontext nutzt.
Die internationale Sicherheitsforschung zeigt, dass KI-Modelle bereits bei Cyberangriffen helfen, Schwachstellen zu finden und Schadcode zu schreiben. Der International AI Safety Report 2026 verweist darauf, dass KI-Agenten in Tests viele reale Schwachstellen fanden und dass staatliche wie kriminelle Akteure KI bereits in ihren Operationen einsetzen. Werden solche Systeme tief in Verwaltung, Finanzmarkt und kritische Infrastruktur eingebaut, ist Kontrollverlust kein fernes Szenario mehr, sondern ein Governance-Problem im Hier und Jetzt.
Eine weitere Gefahr ist subtiler, aber politisch vielleicht die folgenreichste: KI verändert die soziale Architektur liberaler Demokratien. Der Philosoph Yuval Noah Harari beschreibt dies als Kampf um Informationsmacht: Wenn dieselben Schnittstellen künftig zentrale Funktionen von Informations-, Arbeits- und Staatsprozessen dominieren, entsteht eine Infrastrukturabhängigkeit, die Demokratien verwundbar macht. Eine Oxford-Studie zeigt, wie politisches Mikrotargeting durch große Sprachmodelle effizienter und günstiger wird. Gleichzeitig warnen Fachbeiträge, dass Gesichtserkennung bei Protesten einen chilling effect auslösen kann: Schon die bloße Erwartung, identifiziert zu werden, kann vor politischer Teilhabe abschrecken.
[...]
Deshalb braucht es eine demokratische KI-Strategie. Wer die Risiken ernst nimmt, muss Institutionen stärken und wirtschaftliche Gegenmacht organisieren. Vor allem aber müssen staatliche Institutionen die Kontrolle zurückgewinnen.
Kritische KI-Infrastruktur ist als öffentliche Machtfrage zu behandeln: Wettbewerbs- und Missbrauchsaufsicht, Datenzugangsregeln, Missbrauchskontrolle und notfalls Entflechtung digitaler Oligopole. Europa braucht zudem eigene Rechenkapazitäten und Beschaffungsstrategien, damit Verwaltungen, Wissenschaft und Mittelstand nicht vollständig von außereuropäischen Plattformen abhängen. Diese Abhängigkeit macht Europa bereits heute erpressbar.
Es braucht auch klare Regeln für Anwendungen in Staat, Polizei und Militär. Keine autonome tödliche Anwendung ohne sinnvolle menschliche Kontrolle. Keine biometrische Massenüberwachung des öffentlichen Raums. Keine Verträge, die pauschal »alle rechtmäßigen Anwendungen« erlauben. Sicherheitsrelevante Systeme müssen Zulassungen und Kontrollmechanismen unterliegen.
Zudem muss der Staat handlungsfähig werden – mit technischer Expertise, digitalisierter Verwaltung und wirksamen Bürgerrechten auf Erklärung, Anfechtung und menschliche Überprüfung. Wer einem KI-System ausgeliefert ist, ohne Einspruchsrecht und ohne Zugang zu Entscheidungsgründen, lebt nicht im digitalen Rechtsstaat, sondern in einer modernisierten Willkür.
Und es braucht eine Verteilungspolitik für das KI-Zeitalter: Bildung, Weiterbildung, Mitbestimmung und Anreize für Technologien, die menschliche Arbeit ergänzen, statt sie zu entwerten. [...]
Der entscheidende Fehler wäre, die KI-Frage als Spezialthema für Nerds, für Managerinnen und Manager oder für Sicherheitsbehörden abzutun. Es geht um die Grundfrage liberaler Demokratie: Wer kontrolliert die Macht – und in wessen Interesse?
Deshalb brauchen wir nicht weniger Staat, sondern einen besseren, kompetenteren und entschlosseneren Staat; nicht weniger Markt, sondern klare Regeln gegen Machtkonzentration; Innovation im Dienst von Freiheit, Teilhabe und guter Arbeit; und mehr europäische Souveränität.
Überlassen wir KI dem Markt, den Monopolen und den geopolitischen Machtkämpfen, wird sie die Demokratie aushöhlen. Zähmen wir sie institutionell, sozial und demokratisch, kann sie ein Werkzeug des Fortschritts werden. Die Frage ist nicht, ob KI unsere Gesellschaft verändert. Die Frage ist, ob wir sie klug als Chance des Fortschritts nutzen oder ob wir zulassen, dass sie unsere Demokratie entmachtet. [...]"
(zum vollständigen Text) Marcel Fratzscher (Wikipedia) DIW
* Konkret hat sich gezeigt, dass die KI-generierten feindlichen Ziele den israelischen Militärs israelische Geheimagenten angaben, weil diese feindlichen Terroristen nachspürten und daher die gleichen Bewegungsmuster aufwiesen wir die Terroristen. Wahrscheinlichkeit ist nicht eindeutige Evidenz. Menschliche Entscheider können angesichts Tausender angebotener Ziele nicht schnell genug die wirklich passenden herausfinden.
Kommentare
Kommentar veröffentlichen