Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Künstliche Intelligenz trifft Zeitzeugeninterviews | KI und maschinelles Lernen | bpb.de

KI und maschinelles Lernen Kontrafaktische Geschichte auf TikTok #9 KI und Extremismus #8 KI und Social Media #7 KI und die Edutech-Branche #6 KI und Inklusion #5 KI und Ethik #4 Intelligente Tutorsysteme Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann #3 KI und Erinnerungskultur #2 KI in der Schulpraxis #1 Maschinelles und menschliches Lernen KI erweckt Geschichte visuell zum Leben Vom Fachthema zur gesellschaftlichen Lebensrealität KI als Katalysator für Inklusion? ChatGPT gibt nur eine von vielen Antworten Künstliche Intelligenz trifft Zeitzeugeninterviews Lernen mit KI im "Fliegenden Klassenzimmer" KI in der Medienaufsicht: Was leistet das Tool KIVI? "Technologische Infrastrukturen kreieren Abhängigkeiten" Maschinen mit Moral: Perspektiven für die Schule? Editorial: Lernen mit Algorithmen Ideen zur Rolle von künstlicher Intelligenz im Klassenzimmer der Zukunft #11 KI im Unterricht

Künstliche Intelligenz trifft Zeitzeugeninterviews

Joachim Köhler Leonie Meyer

/ 5 Minuten zu lesen

KI, Zeitzeugen und Emotionen – was das mit einem Forschungsprojekt des Fraunhofer-Instituts IAIs und der Stiftung Haus der Geschichte zu tun hat, erzählt Joachim Köhler im Interview.

KI-Software kommt häufig zum Einsatz für die Spracherkennung und das Sprachverstehen. Die Software des Forschungsprojekts "Multimodales Mining von Zeitzeugeninterviews zur Erschließung von audiovisuellem Kulturgut" kann Emotionen in Sound und Mimik erkennen. (© Pawel Czerwinski Externer Link: www.unsplash.com )

Was hat das Forschungsprojekt "Multimodales Mining von Zeitzeugeninterviews zur Erschließung von audiovisuellem Kulturgut" untersucht?

Joachim Köhler: Das Projekt hatte zum Ziel, die Zeitzeugeninterviews des Hauses der Geschichte in Bonn besser zu erschließen – sowohl auf der Transkriptionsebene als auch hinsichtlich des Zugangs zu den Interviews. In dem Archiv stehen so viele audiovisuelle Inhalte bereit, dass man in der Informationsflut quasi ertrinkt. Hier arbeiten wir mit der Technik des Audio-Minings, die wir am Fraunhofer IAIS schon eine ganze Weile entwickeln und beispielsweise auch in einer Zusammenarbeit mit der ARD einsetzen.

Über das Forschungsprojekt

Das Projekt "Externer Link: Multimodales Mining von Zeitzeuginterviews zur Erschließung von audiovisuellem Kulturgut" ist ein gemeinsames Forschungsprojekt des Externer Link: Fraunhofer IAIS und der Externer Link: Stiftung Haus der Geschichte. Durch maschinelles Lernen wurde ein Tool erarbeitet, welches das Filtern der Zeitzeugeninterviews nach Emotionen auf dem Zeitzeugenportal des Hauses der Geschichte ermöglicht. Das Projekt lief von Oktober 2020 bis September 2022.

Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS ist ein Wissenschaftsinstitut, das sich mit Künstlicher Intelligenz, Maschinellem Lernen und Big Data auseinandersetzt. Seit 2014 koordiniert das Fraunhofer IAIS das Forschungsnetzwerk Fraunhofer-Allianz Big Data und Künstliche Intelligenz.

Wir hatten die Idee, dass Emotionalität gerade jungen Menschen einen guten Zugang zu Geschichte, Authentizität und Glaubhaftigkeit vermitteln kann. Es ist einfach etwas anderes, O-Töne von Betroffenen zu hören, als ein Geschichtsbuch zu lesen. Gerade wenn Menschen in Interviewsituationen sind, zum Beispiel in Interviews zum Fall der Mauer oder in Fluchtsituationen, berichten sie sehr emotional. Deswegen haben wir im Projekt untersucht, wie sich Emotionen als Metadaten erkennen lassen.

Welche Rolle hat KI in dieser Forschung gespielt?

Joachim Köhler: Paradedisziplinen von Künstlicher Intelligenz sind die Spracherkennung und das Sprachverstehen. Die KI erkennt in unstrukturierten Daten zum Beispiel Stimmen oder Sprecherinnen und Sprecher und klassifiziert Texte. Als wir mit dem Projekt begonnen haben, war der Ausgangspunkt die Transkription und Verschriftlichung von Interviews – damals waren Transkriptions-Softwares noch nicht so allgegenwärtig wie heute.

Interviewpartner Joachim Köhler (© Fraunhofer IAIS)

Wir haben bei den riesigen Mengen an Interviews angesetzt und geschaut: Wo lassen sich Emotionen erkennen? Und welche Emotionen sind das? Für die Qualifizierung der Emotionen, eine typische Mustererkennung, brauchten wir die KI. Man nennt das auch "Deep Learning": Die KI lernt mit Beispielen neuronaler Netzarchitekturen und Parameter. Nach einer Trainingsphase soll sie dann in der Lage sein, die verschiedenen Emotionen automatisiert zu erkennen.

Gab es in diesem Prozess auch Herausforderungen?

Joachim Köhler: Es gab Emotionen, die sich einfacher erkennen ließen als andere. Beispielsweise ließ sich die Freude deutlich besser erkennen als die Ärger. Teilweise waren auch Differenzierungen von zwei ähnlichen Emotionen, zum Beispiel von Ärger und Trauer, gar nicht so leicht. Für andere lagen uns wiederum keine ausreichende Anzahl von Trainingsdaten vor.

Wie wurden die Emotionen in den Interviews mit Zeitzeuginnen und Zeitzeugen erfasst?

Joachim Köhler: Wir haben verschiedene Ansätze verfolgt: Sentiment-, Intonations- und Mimik-Analyse. Bei der Sentiment-Analyse wurden Texte hinsichtlich ihrer Stimmung maschinell ausgewertet. Wenn eine Person sagt, dass sie nach einem Ereignis traurig war, dann kann man sich gut vorstellen, dass sie wahrscheinlich wirklich traurig war. Der zweite Ansatz ist die Intonation: Verändert sich die Stimmlage, geht die Person mit der Stimme rauf oder runter? Oder spricht sie plötzlich langsam und bedächtig? Dann ist sie wahrscheinlich eher nachdenklich oder traurig. Sind Freudenschreie oder Lacher zu hören? Dann ist die Emotion vermutlich Freude.

Man kann also anhand der Stimme Emotionen erkennen, aber auch anhand von Mimik. Hier wurde mittels Deep-Learning-Modellen aus emotionalen Gesichtsbildern trainiert. Diese Modelle unterscheiden sich von den bisherigen, händisch ausgewählten Merkmalen. Man spricht hier auch von "Representation-based Lernverfahren".

Wir haben alle drei Modi separat voneinander untersucht. Die Sentimentanalyse hat von Anfang an gut funktioniert: Anhand von Worthäufigkeiten konnten wir die Emotionen gut erfassen. Die Untersuchung der Stimme bei der Intonation war eher herausfordernd, und die Erkennung durch das Gesicht klappte wieder ganz gut. Wir haben uns schließlich für eine multimodale Analyse entschieden, also eine Kombination der drei Verfahren zur Untersuchung der Text- und Videostämme.

Welchen Mehrwert hat es, Interviews nach Emotionen zu filtern?

Joachim Köhler: Für die Wissenschaftlerinnen und Wissenschaftler vom Haus der Geschichte, die Ausstellungen kuratieren, ist es eine Art Profi-Werkzeug, um Inhalte aus Zeitzeugeninterviews zu recherchieren. Für Laien ist das schon herausfordernder, denn für sie muss das Tool selbsterklärend sein. Testeinsätze unseres Systems haben gezeigt, dass es nicht so einfach wäre, das Tool den Museumsbesucherinnen und -besuchern nahe zu bringen.

Trotzdem finde ich, dass der Ansatz, Geschichte über Emotionen zu kommunizieren, ein interessanter ist. Und man muss bedenken: Es war in erster Linie ein Forschungsprojekt. Das Haus der Geschichte überarbeitet aktuell seine Dauerausstellung, und damit einher geht natürlich die Frage, wie sich historische Inhalte heute vermitteln lassen. Emotionen können dabei eine Rolle spielen. Ob dieses experimentelle Projekt aber wirklich Einzug in das Besucherprogramm des Hauses der Geschichte findet, kann ich nicht sagen.

Gab es während des Projekts auch Bedenken, Emotionalität so prominent in der Erinnerungsarbeit zu verankern?

Joachim Köhler: Ja, Bedenken gab es. Um dies zu bewerten, ist aber vor allem museumspädagogische Expertise gefragt. Wir haben seitens des Fraunhofer IAIS erstmal geschaut, ob sich die Emotionserkennung technisch überhaupt auf einem gewissen Qualitätslevel umsetzen lässt. Und ein weiterer Schwerpunkt war es, die Datenmengen der Interviews in den Griff zu bekommen und auszuwerten.

Das Projekt wurde zu Ende September beendet – gibt es schon ein Fazit?

Joachim Köhler: Wir haben erste Schritte mit der Emotionserkennung erreicht und konnten dem Haus der Geschichte diverse technische Komponenten bereitstellen. Man muss aber auch sagen, dass sie jetzt noch nicht direkt im Einsatz sind. Was schon verwendet wird, ist unser Audio-Mining-System, das Interviews qualitativ transkribiert. Hinsichtlich der Emotionserkennung muss man vermutlich erst noch einmal genauer verifizieren, ob die Grundannahme zutrifft, dass Emotionen einen guten und interessanten Zugang zu Geschichtsinhalten bieten.

An welcher Stelle wäre der Einsatz von KI im Zusammenhang mit Zeitzeugenschaft oder Geschichtsvermittlung noch möglich?

Joachim Köhler: Wir hatten kürzlich noch ein anderes Projekt zum Thema Erschließung von Zeitzeugeninterviews mit dem Lehrstuhl für Oral History an der Fernuniversität Hagen. In dem vom BMBF geförderten Projekt KA3 wurden Sprachmodelle für Zeitzeugeninterviews optimiert, so dass die Spracherkennung die oftmals akustisch anspruchsvollen Interviews mit einer hohen Transkriptionsgenauigkeit verschriftet und dadurch den Erschließungsprozess deutlich vereinfacht hat. Die Interviews in Hagen dauern zum Teil mehr als vier Stunden. Sie manuell zu transkribieren wäre eine Heidenarbeit. Das geht mit technischer Unterstützung deutlich effizienter. Die Technik erleichtert zudem die Navigation in den Interviews, also das gezielte Hineinspringen ins Audiomaterial zum jeweils gesuchten Abschnitt.

Anhand von Stimmenprofilen kann man verschiedene Phänomene prüfen, etwa wenn eine Sprecherin ins Stocken gerät oder zögert. Das sind dann Hinweise, dass Menschen unsicher sind oder zu bestimmten Wendepunkten in ihrer Erzählung kommen. Auch das Thema Textanalyse bietet weitere spannende Forschungsmöglichkeiten. Worüber reden die Zeitzeugen? Welche Themengebiete adressieren sie, und wie bringt man das in den Kontext anderer Geschichtsquellen? Das ist vor allem für diejenigen relevant, die zu Oral History forschen und versuchen, Geschichte zu verstehen, Aussagen zu bewerten und diese in einen Kontext zu setzen.

Wichtig ist hierbei auch, dass man ein System vor Ort installiert, da viele Zeitzeuginnen und Zeitzeugen nicht wollen, dass ihre Daten über eine Cloud irgendwo in der Welt verarbeitet werden.

Das Interview führte Leonie Meyer.

Fussnoten

Fußnoten

  1. Beim Audiomining wird mithilfe von Deep Learning gesprochene Sprache in einen Text umgewandelt. Aus diesen Textdaten lassen sich dann einzelne Begriffe suchen. Jedes Wort ist mit Zeitmarkierungen der Audio- oder Videoaufnahme hinterlegt.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-SA 4.0 - Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International" veröffentlicht. Autoren/-innen: Joachim Köhler, Leonie Meyer für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-SA 4.0 und der Autoren/-innen teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Dr.-Ing. Joachim Köhler leitet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS die Abteilung NetMedia. Er verantwortet die Geschäftsfelder "Content Technologies and Services" und "Bildverarbeitung". Sein Forschungsschwerpunkt sind die Themen Digitale Transformation und Big Data. Zudem leitet er Forschungs- und Entwicklungsarbeiten zu Analyse und Management von digitalen Inhalten.

Leonie Meyer war von 2021-2024 Redakteurin für werkstatt.bpb.de. Ihr thematischer Schwerpunkt liegt auf den Wechselwirkungen von Sozialen Netzwerken und Politik bzw. politisch-historischer Bildung. Leonie Meyer hat einen Hintergrund in der Politikwissenschaft und studierte an der Rheinischen Friedrich-Wilhelms-Universität Bonn.