Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

"Technologische Infrastrukturen kreieren Abhängigkeiten" | KI und maschinelles Lernen | bpb.de

KI und maschinelles Lernen Kontrafaktische Geschichte auf TikTok #9 KI und Extremismus #8 KI und Social Media #7 KI und die Edutech-Branche #6 KI und Inklusion #5 KI und Ethik #4 Intelligente Tutorsysteme Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann #3 KI und Erinnerungskultur #2 KI in der Schulpraxis #1 Maschinelles und menschliches Lernen KI erweckt Geschichte visuell zum Leben Vom Fachthema zur gesellschaftlichen Lebensrealität KI als Katalysator für Inklusion? ChatGPT gibt nur eine von vielen Antworten Künstliche Intelligenz trifft Zeitzeugeninterviews Lernen mit KI im "Fliegenden Klassenzimmer" KI in der Medienaufsicht: Was leistet das Tool KIVI? "Technologische Infrastrukturen kreieren Abhängigkeiten" Maschinen mit Moral: Perspektiven für die Schule? Editorial: Lernen mit Algorithmen Ideen zur Rolle von künstlicher Intelligenz im Klassenzimmer der Zukunft #11 KI im Unterricht

"Technologische Infrastrukturen kreieren Abhängigkeiten"

Theresa Züger Lorena Jaume-Palasí Nina Heinrich

/ 9 Minuten zu lesen

Mit Künstlicher Intelligenz sollen Maschinen unsere Welt noch effizienter machen. Wie werden diese Technologien aktuell eingesetzt und wem nützen sie? Wir sprachen mit Theresa Züger vom Institut für Internet und Gesellschaft und Lorena Jaume-Palasí von The Ethical Tech Society über gemeinwohlorientierten Einsatz von KI.

In welcher Form kann Künstliche Intelligenz für das Gemeinwohl nutzbar gemacht werden? (© Externer Link: unsplash )

Welche Potenziale sehen Sie in KI-Technologien?

Theresa Züger: Künstliche Intelligenz kann in bestimmten Bereich unterstützen. Zum Beispiel, wenn es um das Erkennen von Mustern geht - in der Klimaforschung oder auch im medizinischen Bereich. KI-Systeme können hier die Grundlage für Assistenzsysteme sein, weil sie über andere Erkennungsmuster verfügen als Menschen. Allerdings ist KI keine Universallösung, sondern hilft uns in ganz bestimmten und datenbasierten Fragestellungen. Und KI trifft auch eigentlich keine Entscheidungen, sondern ermittelt vor allem Wahrscheinlichkeiten.

Wie ist das zu verstehen, dass die KI nur mit Wahrscheinlichkeiten arbeitet?

Theresa Züger: Zum Beispiel kann ich eine KI darauf trainieren, zu erkennen, ob etwas ein Hund oder eine Katze ist. Wenn die KI dann sagt: Katze - dann sagt sie eigentlich: Das ist zu 90 Prozent das, was ich als Katze erkenne unter den Mustern, die ich gelernt habe. Das System spuckt lediglich eine Wahrscheinlichkeit für eine bestimmte Antwort aus und nicht eine finale Aussage. Und schon gar keine Entscheidung. Das ist ein wichtiger Unterschied: ob ein bewusstes Subjekt aus irgendwelchen Beweggründen eine Entscheidung trifft oder ein trainiertes neuronales Netz eine Wahrscheinlichkeit auf Basis seines Trainings ausgibt. Das Spannende an diesem System ist ja, dass es eigene Muster entwickelt, um bestimmte Dinge zu klassifizieren.

Welche Technologie steckt hinter der Nachahmung menschlicher Entscheidungen durch das Errechnen von Wahrscheinlichkeiten?



Lorena Jaume-Palasí: Es handelt sich um viele verschiedene Techniken und auch innerhalb dieser Techniken kann man sich entscheiden, diese so oder so auszuführen. Menschen bringen beim Programmieren ihre eigene Perspektive ein - es kann dafür keine universellen Gesetze geben. Wie sollte das auch gehen? Wollen wir für die Programmierung von KI erst einmal die Essenz des Menschlichen ausfindig machen? Wir können eine KI zum Beispiel nicht dadurch inklusiv machen, indem wir 30 Hauttypen einbauen, denn es gibt nicht genügend Schubladen, um Haut zu klassifizieren.



Theresa Züger beschäftigt sich in ihrer Arbeit mit Fragestellungen technologischen Wandels. (© privat)

Theresa Züger: Ich glaube, der springende Punkt ist, dass die Potenziale nicht mit der Technologie an sich kommen, sondern die Technologie bringt eine bestimmte Herangehensweise mit sich, ein Problem zu lösen. Und ob das Potenziale quasi verwirklicht oder ob es eigentlich nur Risiken realisiert, das entscheidet sich im jeweiligen Kontext, in dem ein System zur Anwendung kommt. Maschinelle Prozesse funktionieren wirklich ganz anders als menschliche Prozesse des Erkennens. Ganz wichtig ist, hier bei der Sprache vorsichtig zu sein: Wir vermenschlichen permanent maschinelle Systeme, und das machen wir intuitiv und behandeln sie quasi wie menschliche Akteure. Aber das verstellt uns den Blick, wirklich zu verstehen, was da passiert.

Da wie Sie sagen, diese Maschinen oder diese Technologien ja von Menschen programmiert werden.

Lorena Jaume-Palasí: Von westlichen Menschen.

Es sind demnach bestimmte Menschen, die da programmieren, also sozusagen den Bias im System herstellen. Welchen Einfluss kann das auf Bevölkerungsgruppen haben? Können Sie einkreisen, wo es zu Konflikten kommen kann, wenn diese Technologien alltäglich werden?

Lorena Jaume-Palasí: Effizienz und Optimierung sind Stichwörter, die wir im Kontext von KI ständig hören. Man geht bei einer Problemlösung immer vom Individuum aus und davon, wie dieses Individuum in seiner Rationalität optimiert werden kann. Es gibt aber Probleme, die durch diesen individualistischen Blick gar nicht gelöst werden können. Probleme wie zum Beispiel Umweltprobleme, die kann man nur mit einem systemischen Blick lösen. Es dominieren in der Praxis jedoch Ansätze, die darauf basieren, dass man erstmal definiert: Was gibt es für Menschen, Frau und Mann? Okay, erste problematische Entscheidung, weil das eine Binarität suggeriert, die in unserer Welt eigentlich nicht existiert. Weiter geht es mit: Wie optimieren wir? Und die Frage ist eigentlich: In welchem Sinne optimieren wir diese Maschinen? Wir programmieren in Europa und in den USA aus einem bestimmten Blickwinkel und dieser setzt voraus, dass wir zunächst Menschen klassifizieren. Es ist so, als würden wir versuchen, den Wald durch die Definition der einzelnen Bäume zu definieren, als würden wir versuchen, den Wald durch die Optimierung der einzelnen Bäume zu optimieren und uns damit vor lauter Bäumen den Wald versperren.

Theresa Züger: Systeme zu bauen, die optimieren und effizienzsteigernd sind, das folgt einem kapitalistischen Ideal. Es dient vor allem dem Ziel, Märkte zu erschließen und Produkte zu entwickeln, die Menschen dann kaufen oder mit denen sie sich in irgendeiner Art und Weise produktiver betätigen. KI, die unter dieser Industrie-Logik entwickelt wurde, entspricht bestehenden Machtverhältnissen. Wenn wir also KI - und das passiert heute sehr, sehr selten - in zivilgesellschaftliche Organisationen bringen, würden dort ganz andere Fragen gestellt werden und ganz andere Menschen überlegen, welche Probleme sie denn tatsächlich mit dieser Art von Technologie lösen können. Und ob sie das überhaupt wollen. Ich glaube, dann kämen wir auch zu anderen Einschätzungen. Es gibt mehrere Ebenen von gesellschaftlicher Macht, Entscheidungsmacht und Verzerrung, die eine wichtige Rolle spielen - und die wir schnell mit den sogenannten „Bias“ verwechseln.




Haben Sie ein Beispiel dafür, wie diese unterschiedlichen Antworten aussehen könnten?
 Je nachdem, ob man einen Akteur fragt, der Machtinteressen verfolgt oder zivilgesellschaftliche Organisationen, die sich um das Gemeinwohl bemühen?

Theresa Züger
: In der Industrie geht es zum Beispiel um die Optimierung von Werbeanzeigen. Im gemeinwohlorientierten Bereich begegnen wir vielen spannenden Projekten, so etwa zum Thema Nachhaltigkeit. Es werden beispielsweise Drohnen eingesetzt, um das Meer von Müll zu bereinigen. Diese Drohnen können durch Computer-Vision unterscheiden, ob etwas Fisch oder Müll ist, um Netze dementsprechend zu steuern. Es gibt auch viele Projekte im Citizen-Science-Kontext, in denen sich Imker überlegt haben, mit Sensoren ihre Bienenvölker besser zu verstehen und quasi ein Modell entwickelt haben, mit dem sie nachvollziehen können, wie bestimmte Bestäubungsmuster funktionieren. So wollen sie darauf hinwirken, dass die Landwirtschaft nachhaltig und gesund weiter existiert. Über den Einsatz von KI wird ein Wissen erzeugt, das diese Menschen und Initiativen sonst nicht hätten. In diesen Fällen geht nicht vornehmlich um Profitmaximierung. Das bedeutet nicht, dass es nicht auch ein Geschäftsmodell geben kann. Doch bei diesem gemeinwohlorientierten Einsatz von KI geht es in erster Linie darum, das Wohlergehen von Menschen langfristig zu verbessern. Wir arbeiten zurzeit an einer Technologie, die dabei helfen soll, Standarddeutsch in einfache Sprache zu übersetzen und damit Barrieren abzubauen, also mehr Zugänglichkeit für Menschen im digitalen Raum zu schaffen. Die wichtigsten Fragen an Projekte rund um den Einsatz von KI sind: Wer betreibt das und verfolgt dieser Akteur ein Profitinteresse oder nicht? Wem wird das zugänglich gemacht? Wie können Menschen partizipieren? Die Industrie ist eher selten daran interessiert, dass Menschen partizipieren können. Im gemeinwohlorientierten Sektor gibt es jedoch ein Interesse daran, dass möglichst viele Leute das nutzen können.

Und in welche Richtung schlägt die KI-Strategie der Politik?



Theresa Züger: Mein Eindruck ist, dass die KI Strategie insgesamt eher auf wirtschaftliche Interessen ausgerichtet ist als auf den zivilgesellschaftlichen Sektor. Ich glaube aber, es gibt zumindest einen Funken der Erkenntnis, dass auch der zivilgesellschaftliche Sektor ein sehr wichtiger werden kann, was technologische Gestaltung angeht. Und dass man da als Staat eine gewisse Pflicht hat, diesen zu befähigen.

Lorena Jaume-Palasí: Die Politik entscheidet in der Regel rational. Und diese Rationalität, die objektiv im Sinne von neutral sein soll, bestimmt unser heutiges Denken. Ein Beispiel: Weiße Menschen, die schon immer viel Wert auf Rationalität gelegt haben, kamen nach Australien und haben gedacht, es sei barbarisch, rituelle Feuer zu machen, da dann die Natur brennt. Also haben sie ein Verbot dagegen verhängt. Fast forward to 2020, kurz bevor Corona kam. Die Nachricht Anfang des Jahres war: Australien brennt. Im Nordwesten von Australien, da gibt es ein Reservoir, das selbst von den Aborigines verwaltet werden kann. Die indigenen Ingenieure haben sich die Rituale angeschaut und daraus einen Prozess ermittelt, der von bestimmten Wetterbedingungen abhängt und sich stetig wiederholt. An welche Momente im Prozess kann man punktuell eingreifen, um größere Feuer zu vermeiden? Auf der Basis dieses Wissens haben sie KI-Kalender entwickelt. Hier wurden also nicht die am Prozess beteiligten Akteurinnen und Akteure optimiert, sondern der Prozess selbst analysiert.



Theresa Züger: In diesem Beispiel war die Lösung ein KI-System. Der Gedanke der Gemeinwohlorientierung heißt für mich aber auch, dass es in vielen Kontexten gar kein System braucht, sondern Lösungen ganz anders aussehen können. Zum Beispiel sind in bestimmten Bereichen menschliche Interaktionen sinnvoller.

Was halten Sie von KI als Lernbegleitung im Bildungsbereich? Wie kann das aussehen und welche Vor- und Nachteile gibt es dabei?



Theresa Züger: KI kann zur Steigerung des Lernerfolgs eingesetzt werden. Allerdings ist es wichtig, dass die lernende Person dabei trotzdem autonom bleibt und in die Entwicklung eines solchen Systems mit einbezogen wird. Es darf keine Bewertung und Klassifizierung von außen stattfinden. Auch was den Datenschutz angeht, gibt es hier viele Fallstricke. Die Annahme, dass ein solches System genutzt wird, um Menschen zu bewerten, zu entscheiden, wer welche Karriere haben wird und wo es sich lohnt, besonders zu fördern, ist naheliegend und sehr problematisch. Außerdem ist der Prozess des Lernens ja ein total menschlicher, da es hier viel um Identifikation geht, sich perspektivisch in etwas hineinzuversetzen - das dürfen wir auch mit technischer Unterstützung nicht aus den Augen verlieren.

Lorena Jaume-Palasí: Ich frage mich: Warum braucht man KI für die politische Bildung? Und warum braucht man KI, um Leute über die Technologien aufzuklären und dessen politische Dimension zu zeigen? Man kann KI für vieles nutzen, sollte es sich im einzelnen Fall aber gut überlegen. Dafür baut man nämlich eine Infrastruktur, was nicht nur teuer ist, sondern auch Abhängigkeiten kreiert. Und mit Abhängigkeit geht auch Vulnerabilität einher.

Von welchen Abhängigkeiten sprechen Sie - zum Beispiel von Technologieunternehmen?



Lorena Jaume-Palasí: Auch, aber nicht nur. Jede Form von Infrastruktur kreiert Abhängigkeiten. Man muss sich immer fragen: Was passiert denn da eigentlich? Welche Daten werden wie veröffentlicht, wer kann über diese Daten verfügen und inwiefern kann man über diese Daten auch Menschen gefährden? Wir haben das ja am Beispiel der Fitness-App Strava gesehen. Erst einmal klingt das total lustig. Menschen gehen joggen und können ihre Route veröffentlichen – Externer Link: bis man sehen kann, wo das US-Militär in Afghanistan joggen geht. Und auf einmal ist dieses Datum gar nicht so irrelevant und gar nicht so harmlos.

Wie schätzen Sie den Einsatz von KI speziell in der politischen Bildung ein?

Theresa Züger: Ich glaube, es ist kein Zufall, dass ihr zwei Menschen angefragt habt, über diese Thematik zu sprechen - und keine Maschinen. Und ich glaube, ein Grund dafür ist, dass Diskussion immer noch das wichtigste Instrument der politischen Bildung ist. Faktencheck ist ein Bereich, wo eine Maschine hilfreich sein kann. Doch die Hauptaufgabe in der politischen Bildung ist die Entwicklung eines politischen Bewusstseins - und da können uns Maschinen nicht helfen.

Lorena Jaume-Palasí: Ich finde es vor allem schwierig, eine KI Prüfungen korrigieren zu lassen. Gerade in historisch-politischen Fächern geht es um mehr als „richtig“ und „falsch“. 



Theresa Züger: Das ist ein ganz interessantes Problem. In Amerika gibt es an Schulen vor allem Multiple-Choice-Tests und die können Maschinen durchaus korrigieren. Jedoch sind dies aus meiner Sicht wesentlich schlechtere Instrumente, um tatsächlich zu verstehen: Hat jemand einen Sachverhalt verstanden oder hat die Person nur auswendig gelernt? Kann jemand selbstständig denken und argumentieren? Es gibt bestimmte Bereiche, wo wir Wissen abfragen können, doch in der Regel sollte es Ziel unserer Bildung sein, jemanden zu befähigen, Probleme eigenständig anzugehen und eigenständig zu analysieren und zu lösen.

Lorena Jaume-Palasí: Man muss sich vor Augen führen: Um den Status Quo zu bewahren, braucht man eine Armee an Expertise. Siri braucht Tausende und Abertausende von Menschen, die Linguistik oder Sprachwissenschaften studiert haben und Siri täglich einfach nur korrigieren. Das heißt, auch beim Einsatz von KI im Bildungskontext müsste man jede Menge Mitarbeitende damit beschäftigen, die Maschine zu korrigieren. Was bedeutet das technisch - Leute zu professionalisieren, damit sie stumm einer Maschine zuarbeiten, die sie vermeintlich entlasten soll? Wir produzieren damit keine Entlastung, sondern verändern lediglich Prozesse.

Gibt es dennoch wertvolle Bildungsprojekte, die mit KI-Technologie arbeiten?



Theresa Züger: Es gibt eine KI der Medienanstalten, die zum Beispiel Hassrede identifizieren kann. Das finde ich interessant.

Lorena Jaume-Palasí: Es kommt mehr auf die Vorgehensweise als auf das Projekt an sich an. Wir müssen uns von der Vorstellung verabschieden, dass man ein Produkt entwickelt, und dann ist es in der Gesellschaft und kann implementiert werden. Vor allem KI steht stets in einem Kontinuum. Diese Programme sind in ihrer Gestaltung nie komplett abgeschlossen. Und daran, wie Menschen an einem bestimmten Zeitpunkt diese Programme nutzen, wird sich mitentscheiden, wie sie diese Programme zwölf Jahre später nutzen. Technologien alleine werden Bildung nicht ersetzen. Egal, wie klug wir sie programmieren, egal wie inklusiv wir sie programmieren. Das ist immer nur ein Teil einer Lösung.

Das Interview führte Nina Heinrich.

Weitere Inhalte

Theresa Züger ist Leiterin der Nachwuchsforscher/-innengruppe Public Interest AI und des AI & Society Labs am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). In ihrer Forschung beschäftigt sie sich mit politischen Dimensionen digitaler Technologien und Kulturen, wobei sie dabei besonders demokratietheoretische Fragestellungen interessieren.

Lorena Jaume-Palasí ist Gründerin von The Ethical Tech Society, einer gemeinnützige Organisation, die Prozesse der Automatisierung und Digitalisierung in Bezug auf ihre gesellschaftliche Relevanz erforscht. In ihrer Arbeit und Forschung beschäftigt sie sich mit Themen wie Internet Governance, Künstlicher Intelligenz, Datenpolitik, Ethik der Digitalisierung und Automatisierung und Diskriminierung. 2018 erhielt sie für die Initiative AlgorithmWatch die Theodor Heuss Medaille „für ihren Beitrag zu einer differenzierten Betrachtung von Algorithmen und deren Wirkmechanismen".

Nina Heinrich ist seit September 2020 Redakteurin für werkstatt.bpb.de. Sie studierte Kulturwissenschaften und Kulturmanagement in Hildesheim, Lüneburg und Vilnius. Parallel dazu erschuf sie ein internationales Festival für Independent-Webserien und kümmerte sich auch sonst mit Workshops um Nachwuchsarbeit in der digitalen Sphäre. Außerdem schrieb sie für das deutschsprachige Lonely Planet Traveler-Magazin und organisierte Portfoliosichtungen für junge Fotograf*innen. Nach ihrem Studium leitete sie als Referentin für Medienprojekte bei der Jugendpresse Deutschland das Workshop- und Redaktionsformat politikorange und betreute Nachwuchsveranstaltungen im Medienbereich für Jugendliche.