Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Selbstregierung – mit welchen Technologien? | bpb.de

Informationen zur politischen Bildung Nr. 361/2024

Selbstregierung – mit welchen Technologien?

Felix Heidenreich

/ 8 Minuten zu lesen

Prozesse der Meinungsbildung und Entscheidungsfindung in einer Gemeinschaft sollten nachvollziehbar sein. Demokratisch legitimierte Institutionen sollten zudem im Zweifelsfall einschreiten können.

Laut Bundesverfassungsgericht müssen Wahlergebnisse in einem nachvollziehbaren Prozess festgestellt werden. Daher werden in deutschen Wahlbüros Stimmzettel von Hand ausgezählt, wie hier bei einer Bürgermeisterwahl im thüringischen Arnstadt im Mai 2024. (© picture-alliance/dpa, Jacob Schröter)

Bereits bei der Rekapitulation der direkten Demokratie in Athen haben wir gesehen, dass demokratische Verfahren immer wieder auf Technik im weitesten Sinne angewiesen sind. Die Rhetorik hatten wir als Kulturtechnik beschrieben. Sie stellt Redefiguren und Argumentationsschemata als vorbereitete Werkzeuge bereit. Aber es gibt auch die ganz handfesten Technologien im engeren Sinne: Dass tatsächlich fair gelost wird, muss auch auf der banalen technischen Ebene sichergestellt sein.

Die Athener hatten hierfür das Kleroterion erfunden, welches seit ca. 390 vor Christus im Einsatz war. Hierfür wurden Plättchen mit Namen beschriftet und zufällig eingesteckt. Danach wurde aus einer durchmischten Menge von weißen und schwarzen Kugeln je eine gezogen und dem jeweils nächsten Namensplättchen zugeordnet. So entschied das Los, wer zum Beispiel als Richter in einem Verfahren fungieren konnte und wer nicht.

Ähnliche technische Fragen stellten sich mit der Ausbreitung der Wahlen: Wie lässt sich eine freie, gleiche und geheime Wahl technisch sicherstellen? Wie müssen Wahlkabinen, Wahlurnen, ja selbst Wahlzettel gestaltet sein, um die Korrektheit demokratischer Verfahren sicherzustellen? Ließe sich all dies nicht schneller, einfacher und mit Maschinen durchführen?

Zu Beginn wurden Wahlzettel noch per Hand geschrieben, irgendwann gedruckt. Schon recht früh beginnen im 19. Jahrhundert, vor allem in den USA, Experimente mit Wahlmaschinen, die den Wahlvorgang beschleunigen sollen. Erfinder bauten aufwendige mechanische Konstruktionen; der Technikoptimismus in den USA war groß in einer Zeit, in der sich die Eisenbahn den Weg von der Ost- zur Westküste bahnte.

Legendär wurde im 20. Jahrhundert die Votomatic-Maschine, die mit maschinenlesbaren Lochkarten arbeitete. Allerdings erlangten sie weltweit eine eher zweifelhafte Berühmtheit: Bei der US-Präsidentschaftswahl im Jahr 2000 kam es im Staat Florida zu einer Hängepartie, weil schlechte Wahlmaschinen uneindeutige Ergebnisse produzierten: Vor der Weltöffentlichkeit saßen Wahlhelfer vor schlecht gelochten Wahlkarten und versuchten herauszufinden, ob nun Georg W. Bush oder Al Gore den Bundesstaat Florida gewonnen hatte.

In gesteigerter Form wiederholte sich das Schauspiel im Herbst 2020. Wieder waren es digitale Wahlmaschinen und eine unzureichend organisierte Wahlabwicklung, die es Donald Trump leicht machten, allerlei Anschuldigungen und Verschwörungstheorien in die Welt zu setzen. Zusammen mit dem Sender Fox News verbreitete Trump die Behauptung, die Maschinen der Firma Dominion Voting Systems Corporation seien manipuliert worden. Im anschließenden Verleumdungsprozess verpflichtete sich Fox News schließlich in einer Einigung darauf, eine Rekordsumme von 787,5 Millionen Dollar an den Wahlmaschinenhersteller zu zahlen. Der demokratiepolitische Schaden war jedoch nicht mehr zu beheben. Der Mythos von der gestohlenen Wahl 2020 war längst zu einem Glaubensbekenntnis der Trumpisten geworden.

Losmaschinen und Wahlmaschinen sind aber nur der augenfälligste Fall einer Auslagerung von demokratischen Verfahren an Maschinen. Die Beispiele zeigen vor allem, dass der Bezug der Demokratie zur Technologie keineswegs unproblematisch ist. Technische Innovationen haben die Demokratie immer wieder gefördert, aber auch bedroht.

Demokratische Nachvollziehbarkeit vs. Komplexität der Technik

Der Fall der USA zeigt, wie stark die Verunsicherung sein kann, wenn demokratische Verfahren technisch unzureichend abgesichert oder aufgrund ihrer Komplexität nicht mehr (für alle) nachvollziehbar sind. Die Demokratie, so könnte man folgern, bedarf nicht nur rechtlicher Rahmensetzungen, institutioneller Verfahren oder bürgerlicher Tugenden der Bürgerinnen und Bürger. Sie ist auch darauf angewiesen, dass grundlegende technische Verfahren nachvollziehbar, zuverlässig und transparent geleistet werden.

In einem Urteil aus dem Jahr 2009 (Urteil vom 3. März 2009; 2 BvC 3/07) hat das Bundesverfassungsgericht aus diesem Grund entschieden, dass eine Digitalisierung der politischen Wahlen in Deutschland nicht zulässig ist. Das Gericht argumentierte, alle Bürgerinnen und Bürger – nicht nur Fachleute der Informatik – müssten nachvollziehen können, wie das Ergebnis zustande kommt. In Deutschland wird es daher so bald keine Wahlmaschinen geben, weder analog noch digital. Das Abzählen von Stimmzetteln in den Wahlbüros durch Wahlhelferinnen und Wahlhelfer bleibt so ein für alle nachvollziehbarer Prozess; es ist einfach, und gerade deshalb zuverlässig.

Nimmt man jedoch das Argument von der demokratiepolitischen Bedeutung der Technologie ernst, so rücken demokratietheoretische Aspekte der Ingenieurskunst in den Fokus: Nicht nur das Wahlsystem ist dann als technische Struktur relevant. Auch die Anwenderfreundlichkeit öffentlicher Infrastrukturen (beispielsweise der Bahn), des Steuersystems oder der Verwaltung erscheint aus dieser Perspektive demokratiepolitisch relevant. Politikverdrossenheit speist sich auch aus der Erfahrung, mit überkomplexen und intransparenten Systemen konfrontiert zu sein. „Selbstregierung“ setzt voraus, dass „man“ auch versteht, was „man“ tut.

Der Philosoph Günther Anders (1902–1992) entwickelte als Reaktion auf die Abwürfe der Atombomben auf Hiroshima und Nagasaki im August 1945 eine Technikphilosophie, die die „Antiquiertheit des Menschen“ als Gefahr beschreibt. Mit dieser etwas sperrigen Formel ist gemeint, dass in hochkomplexen technischen Abläufen die Verantwortung einzelner Personen zu verschwinden droht. Sich nach den Atombombenabwürfen verantwortlich zu fühlen ist gar nicht notwendig gegeben, denn der Handlungsstrang von der Entwicklung zum Bau, über den Transport, den Befehl bis zum Ausklinken der Bombe ist in kleine Handlungsschritte zerlegt. Alle Beteiligten können problemlos zugeben, dass sie dazu beigetragen haben, hunderttausende Menschen zu töten. Aber der technische Prozess entwickelt, so Anders' These, eine Art Eigendynamik, die den Menschen nicht mehr als handelndes Subjekt zeigt. Wer es wirklich getan hat, nicht nur dazu beigetragen, ist gar nicht so eindeutig zu sagen. Als der Präsident den Befehl gab, wusste er nicht, was er tat; nur die Ingenieure konnten die Folgen abschätzen.

Ähnliche Prozesse der technisch induzierten Diffusion von Verantwortung sehen wir in den Plattformöffentlichkeiten der Gegenwart. Social-Media-Plattformen wie Facebook, X (vormals Twitter), Instagram oder TikTok produzieren nicht selbst Inhalte, sondern stellen lediglich algorithmisch kuratierte Plattformen zur Verfügung. Sie binden auf der Basis neurowissenschaftlicher Fachkenntnis die Aufmerksamkeit der Konsumenten, um Werbung zu platzieren. Inhalte – auch politische Inhalte – sind hier lediglich Mittel zum Zweck in einem Konkurrenzkampf um Aufmerksamkeit.

Die zersetzende, polarisierende und komplexitätsreduzierende Wirkung von Plattformöffentlichkeiten hatten wir bereits erwähnt. Auch hier gilt: Wer Inhalte „teilt“, ist nicht ihr Autor, trägt aber dennoch zur Verbreitung bei. An der Polarisierung beteiligt sind sehr viele, aber präzise verantwortlich machen lässt sich kaum jemand so richtig. Plattformöffentlichkeiten haben keine Chefredaktionen. Nicht so sehr die Menschen handeln hier, sondern die Algorithmen selbst verschärfen die Polarisierung von Meinungen und die Steigerung von Gefühlen.

Mit Verweis auf den französischen Soziologen Bruno Latour (1947–2022) könnte man in diesem Zusammenhang auch von „Aktanten“ sprechen. Aktanten sind keine Akteure im herkömmlichen Sinne (unter ihnen stellen wir uns in der Regel Menschen vor). Aktanten können hingegen auch Apparaturen, Algorithmen oder Viren sein. In diesem Sinne sprechen wir dann auch davon, dass der Algorithmus „entschieden“ hat, dieses oder jenes zu tun. Im Extremfall können diese Entscheidungen sogar Menschenleben beenden.

Laut Bruno Latour ist unsere Lebenswelt in zunehmendem Maße von solchen Aktanten bevölkert. Immer neue Distanzwaffen im Kriegseinsatz technisieren das Töten: Das Drücken von Knöpfen hat Zerstörung in großer Distanz zur Folge. Die technisierten Prozesse laufen Gefahr, eine Eigendynamik zu entwickeln. „Programme“ aller Art laufen ab, so dass die Zuordnung von Verantwortung schwieriger wird. Die Technisierung unserer Lebenswelt hat eine lange Geschichte. Heute sind wir von komplexen Maschinen, Programmen und selbstlernenden Algorithmen umstellt.

Von Social Media zur KI

Im Vergleich zu digitalen Wahlmaschinen oder den Algorithmen in den Plattformöffentlichkeiten muten die aktuellen Entwicklungen im Bereich der selbstlernenden Maschinen schlicht atemberaubend an. Meist werden diese Technologien umgangssprachlich als künstliche Intelligenz bezeichnet. Vor allem die Chatbots gewannen nach der Veröffentlichung von ChatGPT im Jahr 2023 enorme Bekanntheit. Heute gehört das geschickte „Prompten“, als „Nachfragen“ oder Beauftragen von selbstlernenden Maschinen bereits zu den wichtigen Kulturtechniken, die an Schulen und Universitäten vermittelt werden.

Meist werden die Auswirkungen thematisiert, die diese technische Entwicklung für den Arbeitsmarkt oder für die Verteidigungstechnologie hat. Dass nun noch mehr Aufgaben automatisiert werden können, könnte den Verlust von Arbeitsplätzen oder sogar die Automatisierung des Tötens im Krieg durch KI-gesteuerte Drohnen zur Folge haben. Auch diese Aspekte haben natürlich demokratiepolitische Folgen.

Doch man muss nicht an die KI-gestützten Hilfssysteme in der Rechtsprechung denken, die in manchen Staaten bereits im Einsatz sind, um die demokratiepolitische Dimension der Entwicklungen zu sehen. Selbst KI-gestützte Verkehrsleitsysteme begünstigen manche Personen und belasten andere. Da selbstlernende Systeme Muster erkennen, ohne deren Entstehung erklären zu können, besteht hier stets die Gefahr der Diskriminierung. Bei der Kredit- oder Stellenvergabe könnten im schlimmsten Fall Muster benutzt und zugleich bedient werden, die durch Diskriminierung zustande kamen.

Aber längst sind auch andere demokratiepolitische Gefahren erkennbar. Hierzu gehört die Tatsache, dass Chatbots Kommunikation so gut simulieren können, dass manipulative Eingriffe in digitale Öffentlichkeiten noch leichter werden. Statt in Troll-Fabriken hunderte Menschen mit der Beeinflussung von Wahlen zu beschäftigen, lassen sich nun beliebig viele KI-Avatare für die politischen Öffentlichkeiten offener Gesellschaften kreieren. Diese können nicht nur die Meinungsäußerungen echter Personen simulieren, sondern sich auch perfekt an die jeweiligen psychischen Dispositionen von Opfern heranarbeiten: Selbstlernende Maschinen lernen schnell, sie sind niemals müde und untereinander bestens vernetzt.

Langfristig wirkungsreich könnte die Tatsache sein, dass sich nun auch in Ton und Bild Fälschungen in beliebiger Quantität (und Qualität) produzieren lassen.

Diese Gefahren sind jedoch nicht ganz neu: Fälschungen gab es schon immer. Geradezu legendär sind die Retuschen, die die sowjetische Propaganda an zahlreichen Fotografien vornahm. Immer wieder ließ Stalin in Ungnade gefallene Mitstreiter aus Bildern entfernen: Das Verfälschen der Geschichte, das der Fotohistoriker David King ausführlich rekonstruiert hat, wird hier besonders anschaulich.

Retusche ist seit der Erfindung der Fotografie möglich. Heute jedoch kann eine beliebige Anzahl von Fälschungen in höchster Präzision erstellt werden – mit täuschend echtem Ton und als Bewegtbild. Diese Täuschungen können zudem nach dem Bauprinzip des micro-targeting auf einzelne Individuen angepasst werden.

Welche Konsequenzen sich daraus für demokratische Öffentlichkeiten ergeben, ist noch nicht abzusehen. Ob es gelingen kann, für die Zuverlässigkeit von Bildern und Filmsequenzen neue – allgemein anerkannte – Kriterien zu entwickeln, bleibt abzuwarten. Fraglich ist, ob das menschliche Gehirn Dinge sehen kann, und trotzdem (auch unbewusst) verstehen, dass diese nicht real sind. Zumal die Bespielung mit derartigen fake bombs im Schnellfeuermodus erfolgt: Das sogenannte debunking, also der Nachweis, dass es sich um einen Fake handelt, dauert zu lange, um noch relevant sein zu können. Längst fallen weitere fake bombs. In einem Kosmos, indem Falsches und Wahres nebeneinander existiert, wird Orientierung schwierig und die Verbreitung von Verschwörungstheorien leicht.

QuellentextKI Chatbots können Fake News verbreiten – Können sie auch deradikalisieren?

[…] Eine wirklich wirkungsvolle Strategie, wie die Verbreitung von Verschwörungsmythen eingedämmt werden kann, wurde bisher nicht gefunden. Ein Forscherteam aus den USA hat nun getestet, ob Chatbots wie ChatGPT mit Künstlicher Intelligenz (KI) dabei eine Rolle spielen können. Das Ergebnis: Kurze Gespräche mit einem KI-Chatbot können die Zustimmung zu Verschwörungstheorien signifikant und langfristig senken. Die dazugehörige Studie der US-Forscher wurde heute [September 2024] in der Fachzeitschrift „Science“ veröffentlicht.

Für das Experiment unterhielten sich mehr als 2.000 Studienteilnehmer*innen mit dem KI-Chatbot ChatGPT-4 Turbo. Zunächst sollten die Personen eine Verschwörungstheorie und die angeblichen Beweise dafür schildern. […] Der Bot hatte die Aufgabe, sein Gegenüber von der Verschwörungstheorie abzubringen. Im Schnitt waren die Unterhaltungen kürzer als zehn Minuten. Die Kontrollgruppe diskutierte ein von der Theorie unabhängiges Thema mit dem Chatbot.

Am Ende wurden beide Gruppen erneut gefragt, wie überzeugt sie von der Verschwörungstheorie sind. Die Testgruppe zeigte eine um etwa 17 Prozentpunkte stärkere Abnahme der Überzeugungen, mit welcher Sicherheit die Verschwörungstheorie wahr sei, als die Kontrollgruppe. Bei etwa einem Viertel der Teilnehmenden sank die verschwörungstheoretische Überzeugung so weit, dass sie sich weniger als 50 Prozent sicher waren, dass sie wahr sei.

Um festzustellen, ob die Veränderung der Ansicht nur kurzfristig sei, wurden die Teilnehmenden Monate später erneut befragt. Auch dann konnte der Effekt weiterhin gemessen werden.

Die Idee, Fake News und Verschwörungstheorien etwas entgegenzusetzen, indem man überzeugende Gegenargumente präsentiert, sei nicht neu, meint Fabian Hutmacher von der Julius-Maximilians-Universität Würzburg. […] „Neu ist dagegen die Idee, die Auswahl der präsentierten Gegenargumente – unter Zuhilfenahme eines KI-Chatbots – an die konkreten Überzeugungen der jeweiligen Einzelperson anzupassen“. […]

„Die Ergebnisse sind sehr spannend“, meint Dr. Stefan Feuerriegel. Er ist Leiter des Instituts für Künstliche Intelligenz (KI) im Management an der Ludwig-Maximilians-Universität München (LMU). […] „Bisher war häufig der Grundsatz [in der Forschung]: Fakten helfen wenig, sondern effektiv sind vor allem Empathie und Emotion. In der aktuellen Studie wird aber gezeigt, dass Fakten in einem längeren Gespräch doch helfen“. […] Was auch nach der Studie unklar bleibt, ist, was genau die Menschen (teilweise) von ihrem Glauben an Verschwörungsmythen abgebracht hat. […]

Es ist auch noch nicht geklärt, wie Personen reagieren, die sehr stark in Verschwörungstheorie-Glauben verstrickt sind. Das Experiment richtete sich eher an ein durchschnittliches Abbild der Bevölkerung, die zwar zu etwa 80 Prozent angaben, spezifische Verschwörungstheorien zu glauben, aber mutmaßlich mit eher geringer Überzeugung.

Was die Wissenschaftler aber auch wirklich überrascht hat: Über 99 Prozent der vom KI-System vorgebrachten Fakten waren korrekt.

Jan Schneider, „KI-Chatbot senkt Glaube an Verschwörungen“, in: zdf heute vom 12. September 2024. Online: Externer Link: https://www.zdf.de/nachrichten/panorama/ki-chatbots-chatgpt-verschwoerungsmythen-studie-100.html

Neue Ungleichgewichte

Aber neue Unsicherheiten drohen der Demokratie auch durch Machtungleichheiten, die sich nicht nur auf Medientechnologien beschränken. Oft konvergieren (= sich einander nähern) dabei finanzielle und technologische Machtakkumulation. Der Unternehmer Elon Musk entscheidet beispielsweise über den Verlauf des Ukrainekriegs mit, weil er eigenmächtig entscheiden kann, wem das Satellitennetzwerk Starlink zur Verfügung steht – und wem nicht. Nicht nur extremer Reichtum gefährdet die Demokratie, sondern auch die Akkumulation technologischer Macht.

Ob es Demokratien gelingen wird, so etwas wie „digitale Souveränität“ (Emmanuel Macron, französischer Staatspräsident) herzustellen, ist derzeit unklar. Erste entsprechende Regelungen sind auf der Ebene der EU und auch auf Bundesebene bereits erfolgt. Einen durchschlagenden Erfolg gegen algorithmische Verhetzung wird man von diesen Regelungsversuchen allerdings nicht erwarten können.

Neben der Verhetzung stellt ein weiteres Problem die Ausbreitung von Fatalismus und Zynismus dar: Wenn Wahrheit und Lüge nicht mehr auseinanderzuhalten sind, dann besteht die Gefahr, dass Bürgerinnen und Bürger in eine politische Apathie (= Teilnahmslosigkeit) verfallen. Auch und gerade diese Apathie – „Man wird die Wahrheit nie erfahren.“ – hilft indes Autokraten und Autokratinnen und wird daher von diesen auch bewusst befeuert. Zu den Strategien der russischen Propaganda gehört es auch, durch die Verbreitung zahlreicher widersprüchlicher Theorien den Eindruck zu erwecken, die Wahrheit sei nicht feststellbar. Verlässliche Quellen könnten daher auch zukünftig weiter an Bedeutung gewinnen.

Felix Heidenreich ist Philosoph und Politikwissenschaftler und lehrt an der Universität Stuttgart. Zudem ist er wissenschaftlicher Koordinator am Internationalen Zentrum für Kultur- und Technikforschung der Universität Stuttgart. Heidenreich publiziert zur politischen Theorie, zur Kulturtheorie und Kulturpolitik.