"Siren_web_client.exe": Hörspiel über die Zukunft der Stimme
In dem Hörspiel "Siren_web_client.exe" geht es um eine Radiomoderatorin und ihren Versuch, künstliche Intelligenz für sich arbeiten zu lassen. Ein Gespräch mit der Autorin des Hörspiels, Christine Nagel.
Frau Nagel, welche Grundidee, welche Science-Fiction steckt hinter diesem Hörspiel?
Christine Nagel: Es war gar keine Science-Fiction-Idee, sondern ich bin 2015 von einem Herausgeber angesprochen worden, der aus der Tradition der Arbeiterliteratur kommend einen Band zum Thema "Zukunft der Arbeit" herausgeben wollte. Ich sitze viel im Hörspielstudio und nehme Stimmen auf. Also habe ich mich gefragt, wie die Zukunft der Stimme in der Digitalisierung aussieht und habe angefangen, mich mit Forschungsliteratur zu beschäftigen. Die Geschichte hat sich im Grunde aus meinem Alltagserleben heraus im Umgang mit Schauspielern weiterentwickelt: eine Radiomoderatorin, die sich quasi selber abschafft.
Bei künstlicher Intelligenz geht es aber auch viel um Denken, aus dem später auch Handeln wird. Inwiefern spielt das eine Rolle?
Nagel: Man hat sich in der Stimmsynthese lange Zeit mehr darum gekümmert, wie man Algorithmen bauen kann, die den Klang der Stimme nachbauen. Aber dann verschränkte sich das mit anderen künstlichen Intelligenz-Projekten, die uns mittlerweile umgeben, nämlich mit der neuronalen Netzwerkentwicklung. Das wird in der Textgenese schon oft angewandt: Alles, was diese Übersetzer-Tools machen, sind neuronale Netzwerke. Für die Forscher ist es in der Stimmsynthese das schwierigste, den Klang der Stimme mit der Semantik und dem sich selbst generierenden Wissen zu kombinieren. Da ist Deutschland Gott sei Dank noch sehr im Hintertreffen; in Amerika ist man schon sehr viel weiter.
Was ist in "Siren_web_client.exe" zu hören?
Nagel: Man hört eine junge Radiomoderatorin, die eine regelmäßige Reihe hat, in der sie Hörspiele oder wichtige Persönlichkeiten der Kulturgeschichte oder der Kulturästhetik vorstellt. Sie ist völlig überlastet, weil sie sich komplexe Themen immer schneller erarbeiten und diese einfach und locker präsentieren muss. Sie erfährt, dass es Stimmen- und Sprachsynthese-Tools gibt, die einen individuellen Zuschnitt bekommen. Also nicht nur allgemeine Stimmen oder eine "Alexa", sondern eine, die genauso klingt wie ihre eigene Stimme. Und da sie vermutet, dass der Radiosender, für den sie arbeitet, auch bald auf die Idee kommen wird, will sie dem zuvorkommen und beauftragt einen Programmierer, ihre eigene Stimme schon mal zu synthetisieren. Sie hofft dadurch, ihren Job zu behalten, wenn sie den Dingen voraus ist.
Dieses Wissen, dass sie da verarbeiten, ist kein Allgemeinwissen. Wie haben Sie sich das angeeignet?
Nagel: Ich habe an den deutschen Unis geguckt, wer sich zurzeit mit künstlicher Intelligenz und Stimmsynthese beschäftigt. Ich war zuerst bei Professor Björn Schuller in Augsburg, der sich schon vor mehr als zehn Jahren in seiner Promotion mit Emotionsforschung beschäftigt hat: Wie drückt sich alles, was uns emotional bewegt, in der Stimme aus? Und wie kann man das nachbilden?
An der Uni in Saarbrücken gibt es jemanden, der schon sehr lange den Stimmklang synthetisiert.
Am liebsten hätte ich aber mit einem der "Alexa"-Entwickler gesprochen - aber das ist Top Secret, da kommt man nicht ran. Die dürfen überhaupt nichts sagen, weil auch "Alexa" ein selbstlernendes System ist. Und alles, was die Nutzer durch die Interaktion mit "Alexa" der Firma mitgeben, führt dazu, dass die Alexa-Stimme besser sprechen lernt.
Das Interview führte Jürgen Deppe.
Schlagwörter zu diesem Artikel
Hörspiele
