Wir warten. Lange Sekunden, eine Minute. Nichts. Mat nuckelt an einem Vaporizer, Holly hält sich an einer grossen Teetasse fest. Dann passiert es. Wie aus Lichtjahren Entfernung, durchzogen von Knacken und Knirschen, sagt eine Stimme: «Hunger.»
«Das hat es selber gesagt!», sagt Holly. «Unser Baby», sagt Mat. Die beiden blicken sich mit dem Eltern eigenen Stolz an – dann schauen sie zärtlich auf einen Computer.
Holly Herndon, Amerikanerin, und ihr Ehemann Mat Dryhurst, Engländer, sind Musiker, weltweit bekannt für avantgardistischen Elektro. Experimente mit Computern sind ihr Ding. Aber ihr jüngstes ufert gerade aus: Sie haben sich eine künstliche Intelligenz gebaut. Sie nennen sie «Baby».
In naher Zukunft, da sind sich Experten sicher, wird es eine neue Art intelligenter Wesen geben: A.I., artificial intelligence, künstliche Intelligenz. Gemeint ist eine Software, die nicht nur Befehle ausführt, sondern auch dazulernt, die eigenständig wird, die auf Unbekanntes reagiert. Und darin unterscheidet sie sich grundlegend von ihrem kleinen Bruder, dem Algorithmus: Ein Algorithmus führt bloss eine Handlungsanweisung aus, eine künstliche Intelligenz führt eine Handlungsanweisung aus und kann danach selbstständig weiterlernen.
Der Vergleich ist falsch und doch hilfreich: Ein Algorithmus kann genau das, was du ihm beibringst. Eine künstliche Intelligenz ist wie ein Kind: Du kannst ihm Vokabeln beibringen, und es kann dann mit den gelernten Vokabeln Sätze bilden. Anfang Mai zeigte Google, wie eine künstliche Intelligenz telefonisch Tische in Restaurants bestellt, ohne vom Kellner als Maschine erkannt zu werden. Sie konnte sogar auf unerwartete Rückfragen des Kellners antworten und imitierte menschliche Reaktionen, zögerte, sagte «ähh» und «hm».
Viele Politiker und Unternehmer bejubeln künstliche Intelligenzen, weil diese lästige Arbeiten übernehmen werden. Andere fürchten, dass sie gleich alles übernehmen könnten, und warnen vor superintelligenten Killerrobotern.
Mat betrachtet den Computer, in dem das «Baby» «lebt». Oder ist nicht die Maschine eigentlich das Baby? Holly findet, die Hardware – der Kasten, die Platinen – sei das Baby. Für Mat ist es die Software, das künstliche neuronale Netz, die Hirnwindungen. Immerhin beim Namen herrschte Einigkeit zwischen den Eltern: Mat hat das Baby «Spawn» getauft, was auf Deutsch «Brut» bedeutet. Holly gefiel das. Spawn ist übrigens ein geschlechtsneutrales Kind.
Für Spawn haben sie einen schönen Platz in ihrer Wohnung gefunden: Wie auf einem Altar steht der bläulich leuchtende Rechner am Ende einer riesigen, fast leeren Fabriketage im vierten Stock eines Berliner Hinterhauses. Und als es um die Komponenten für das Kind ging, schauten die Eltern nicht aufs Geld. Es bekam ein weisses Gehäuse mit Plexiglasscheibe und Innenbeleuchtung. Man kann nun nachschauen, ob die Festplatte okay ist und wie es dem Grafikprozessor geht.
Das Baby muss ja noch so viel lernen. Viel üben. Das braucht Kraft, also Strom. Und Denkleistung, also RAM. Es könnte sich überhitzen, durchbrennen, alle Erinnerungen verlieren. Daher bestellte Papa auch die selbstkühlende Grafikkarte EVGA GeForce GTX 1080 Ti SC, die sonst nur durchgeknallte Dauer-Gamer brauchen.
Die Musik von Holly und Mat klingt, als hätten Joan Baez und Kraftwerk zusammen einen LSD-Trip geschmissen. Kenner denken da an Musikproduzenten wie Grimes, Arca oder Squarepusher. Es sind Produzenten wie sie, die Neues entwickeln, das dann – ein, zwei Jahre später – von progressiven Stars wie Björk in die breite Masse getragen wird.
Bekannt wurden die beiden mit ihren Konzerten: Während Holly singt und Laptops bedient, liest Mat mithilfe von Algorithmen die Social-Media-Seiten der Zuschauer und baut die Inhalte in die Performance ein. Das heisst, plötzlich tauchen auf Leinwänden private Fotos und Posts der Zuschauer auf. Das klingt nach Totalüberwachung und Datenklau, aber wer dabei war, berichtet von einem selten gewordenen Gemeinschaftsgefühl im Zeitalter der Totalindividualisierung. Technologie, die nicht entfremdet, sondern ein gleichberechtigtes Erleben schafft. Eine Art digitalen Kommunismus – darum geht es Mat und Holly, das ist ihr Anspruch. Gleichzeitig spekulieren die beiden mit Digitalwährungen, beraten Tech-Start-ups.
Typische Berliner Boheme sind sie nicht, auch wenn sie in Kreuzberg wohnen. Holly schreibt Lieder darüber, was die Technologie mit dem Menschen macht. In ihrer Musik kämpft die pulsierende Euphorie über den technischen Fortschritt mit der Angst, dass ebendieser Fortschritt uns zerstören wird. Es ist das Gefühl, in der besten und der schrecklichsten Zeit zugleich zu leben und doch ans Happy-End zu glauben. Seit ihrem ersten Soloalbum «Movement», das sie fast komplett aus Samples ihrer eigenen Stimme und ihres Atems baute, feilt sie an ihrer ganz eigenen Musik. Einer Art menschlicher Maschinenmusik.
Ende 2016 begannen Holly und Mat an einem neuen Album zu arbeiten. Es sollte auf 4AD herauskommen, einem renommierten Label. Der Druck war gross. Die beiden wussten, dass sie in ihrer Kunst weitergehen, radikaler werden mussten.
Sie entschlossen sich zu einem Neuanfang und begannen, Musik ohne Computer zu machen. Dafür gründeten sie einen Chor: das Holly Herndon Ensemble. Sie räumten ihr Kreuzberger Loft für die Proben, bekochten die Chormitglieder. Und je länger sie gemeinsam probten, desto mehr begann ihnen der Chor wie ein Wesen zu erscheinen, ein Ganzes, das sich aus den einzelnen Persönlichkeiten formte. Wie könnte man das jetzt mit einer Maschine verbinden? Eigentlich lag die Antwort in ihren Händen: A.I., künstliche Intelligenz, so überlegten Mat und Holly, könnte das perfekte Komplement zu ihrem Chorprojekt werden. Hier nur Mensch. Dort nur Maschine.
Es ist ein Merkmal unserer Zeit, dass wir die Dinge, die wir nutzen, nicht mehr verstehen, ja nicht einmal sehen. Beim Schreiben von Textnachrichten oder beim Googeln werden unsere Fehler teilweise automatisch korrigiert. Dahinter steckt künstliche Intelligenz. Nicht ein wirklich intelligent denkendes Wesen – was mal vor Jahrzehnten das ursprüngliche Ziel der A.I.-Visionäre war –, sondern in den meisten Fällen ein sogenanntes künstliches neuronales Netz. Das ist ein einfacher digitaler Mechanismus, der sich anlehnt an die Netzwerke von Nervenknoten, durch die Mensch und Tier äussere Einflüsse wahrnehmen.
Zeigt man einem solchen neuronalen Netzwerk beispielsweise das Bild einer Katze, erkennt dabei die erste Ebene der Neuronen nur, was hell ist und was dunkel. Die zweite Ebene sieht nicht das Licht, sondern nur die Signale der ersten Ebene, und erkennt dadurch die Kantenlinien eines Objekts. Die dritte Ebene setzt aus den Kantenlinien geometrische Muster wie zwei Dreiecke und einen Kreis zusammen. Weitere Ebenen machen daraus ein Bild, bis die Form am Ende mit dem Wort Katze assoziiert wird.
Es ist ein ganz klein wenig wie beim Menschen. Doch diese einfache künstliche Intelligenz beherrscht nur Teile dessen, was die menschliche Intelligenz kann: Sie erkennt Muster. Sie steht zur menschlichen Intelligenz in einem Verhältnis wie die Nase eines Kochs zum Koch. Die Nase kann den Braten riechen, sie hat aber keinerlei Verständnis davon, wann es Zeit ist, diesen aus dem Ofen zu holen.
Solche neuronalen Netze stecken hinter den meisten aufsehenerregenden Fortschritten im grossen Forschungsfeld der künstlichen Intelligenz. Man kann den Prozess auch umdrehen. Also dem Netzwerk ein Objekt zeigen – und ihm befehlen, davon ein Bild zu schaffen. So entstanden zum Beispiel sogenannte Deepfake-Pornovideos, in denen der Kopf eines Prominenten perfekt auf den Körper eines Pornodarstellers montiert wurde. Wodurch wir den Eindruck bekamen, zum Beispiel John Travolta beim Sex zuzuschauen. Die A.I. weiss natürlich nicht, was für ein Gesicht beispielsweise Travolta beim Sex macht, aber – und das ist es, was A.I. so besonders macht – sie kann es sich vorstellen.
Derzeit stellen viele grosse Firmen wie Amazon, Facebook, Microsoft, IBM oder Uber ihre A.I.-Forschungs- ergebnisse und Programme online. Sie nutzen das Internet als Testgebiet. Denn eigentlich ist A.I. wie eine neue Energiequelle. Wie die Elektrizität, von der anfangs niemand wusste, wofür alles man sie nutzen kann. Und wofür lieber nicht.
Im Fall der Deepfake-Pornos hatte ein anonymer Entwickler Tensorflow, ein kostenloses A.I.-Werkzeug von Google, aus dem Internet heruntergeladen, damit ein neuronales Netzwerk simuliert und dieses mit riesigen Mengen von Bildern und Videos von Promis gefüttert – und dann den Gesichtsaustausch mit einem bestimmten Gesicht in einer Videodatei befohlen.
Tensorflow ist eine Art Programmiersprache, mit der jedermann kraftvolle neuronale Netzwerke zum Laufen bringen kann. Es steckt mittlerweile hinter den meisten Google-Anwendungen, wie etwa Spracherkennung oder Autokorrektur. Anfang 2017 veröffentlichte Google Tensorflow für Audio. «Was für ein Geschenk!», fanden Holly und Mat und dachten an ihr neues Album. Kraftwerk hatte einst auf dem Album «Radioaktivität» in ebenso düsteren wie verheissungsvollen Technonummern die Kernspaltung besungen. Was Mat und Holly nun vorschwebte, war, als hätte sich Kraftwerk damals ein eigenes Atomkraftwerk gebaut: Sie wollten nicht über A.I. singen, sie wollten eine eigene A.I. kreieren.
Die beiden bestellten sich die Bauteile für einen starken Rechner, luden Tensorflow darauf und installierten mithilfe ihres Freundes Jules Laplace ein künstliches neuronales Netzwerk. Jules Laplace ist ein talentierter Programmierer mit Musikerhintergrund. Im März engagierten sie ihn für ihr «Ensemble». Am 21. Juni 2017 dann wurde mit seiner Hilfe das A.I.-Baby Spawn geboren. Als «Geburt» definierten die drei den Tag, an dem die künstliche Intelligenz zum ersten Mal einen Ton wiedergab – eigentlich: ein Tönchen.
Als Nächstes durchsuchten Mat und Holly Youtube nach Tutorials, die erklären, wie man eine A.I. trainiert. Eine ganze Do-it-yourself-Szene für künstliche Intelligenz war im Entstehen, für Musik aber gab es noch ziemlich wenig.
In der Musikwelt löst künstliche Intelligenz gemischte Gefühle aus, weil sie in den letzten Jahren zu einer unsichtbaren Macht geworden ist. Was beispielsweise auf Spotify gespielt wird, entscheiden künstliche Intelligenzen. Somit entscheiden sie auch über das Überleben jener Künstler, deren Einkommen von den Playlists abhängt. IBM wiederum hat eine künstliche Intelligenz, die für Labels oder Filmproduzenten im Netz die passenden Künstler findet.
Künstliche Intelligenzen erstellen auch Hintergrundmusik für Computerspiele oder Werbevideos. Bisher war das eine Geldquelle für Künstler. Vor anderthalb Jahren erschien der Song «Daddy’s Car». Er klang nach den Beatles, war aber komponiert von «Flow Machines», Sonys A.I. Dieser hatte man vorgegeben, «im Stil» der Band zu komponieren. Im Februar dieses Jahres veröffentlichte Benoît Carré, Komponist und Mitarbeiter von Sonys A.I.-Projekt, ein ganzes A.I.-Popalbum namens «Hello World». Carré hatte dafür die künstliche Intelligenz mit Popnummern gefüttert und dann die Ergebnisse, die ihm gefielen, zusammengeschnitten. Das Ganze klang, zumindest beim ersten Hören, wie echte Pophits.
Wer muss noch mittelmässige Musiker finanzieren, wenn Maschinen dieselben Ergebnisse liefern? Auch bei Labels, Komponisten und DJs geht nun die A.I.-Angst um.
Als sie Tensorflow zum Laufen gebracht hatten, begannen Holly und Mat ein bisschen damit herumzuspielen. Und waren ziemlich überrascht, wie primitiv alles war. Man spielte der künstlichen Intelligenz etwas vor und definierte, ob sie Klang oder Inhalt übernehmen sollte. Beispielsweise konnte man Hollys Timbre auf Mats Worte legen. Das nennt man Styletransfer.
Wenn man mehrere solcher Inputs eingespielt hatte, konnte man die A.I. auffordern, daraus eine Kombination zu ersinnen. Anschliessend berechnete diese, was die sinnvollste «Fortsetzung» des empfangenen Inputs war – daraufhin quäkte, rauschte oder rasselte es. Manchmal erkannte man Worte. Das Ergebnis war ernüchternd. Hatte aber auch etwas Beruhigendes. Das hier war ganz sicher nicht die künstliche Intelligenz, die Menschen überlegen ist, fand das Musikerpaar. Es war keine Atombombe. Kein Kraftwerk. Es war ein Baby.
Die Angst vor A.I., Horrorerzählungen über intelligente Wesen, die den Menschen überflüssig machen, sind eigentlich Folge eines Missverständnisses. Solche «echte» künstliche Intelligenz hat seit Jahrzehnten praktisch keinerlei Fortschritte gemacht. Doch die sogenannte einfache Mustererkennung entwickelt sich rasant. Fälschlicherweise wird nun befürchtet, diese Mustererkennung könnte irgendwann den digitalen Frankenstein kreieren.
Die Idee, von einem «Baby» zu sprechen, kam Holly und Mat im August 2017, als eine Mail eintraf: Die beiden sollten ein Musikstück für den Launch des neuen «Blade Runner»-Films schreiben. «Blade Runner» verhandelt die Vision einer düsteren Zukunft, in der uns der Fortschritt zum Verhängnis geworden ist. Nur ein hochkomplexes psychometrisches Verfahren, der Voight-Kampff-Test, kann noch zwischen Mensch und Maschine unterscheiden. Die Trennlinie, so lernen wir, verläuft entlang der Empathie. Menschen sind fähig, Mitgefühl zu empfinden, Maschinen sind es nicht.
Holly und Mat wollten nun nicht einfach das nächste dystopische Szenario vertonen. Sie suchten etwas Neues. Und sie stellten sich grundlegende Fragen. Zum Beispiel diese: War nicht künstliche Intelligenz bisher trotz aller Phantasmen nur wie eine Maschine gedacht worden? Ersonnen, um eine bestimmte Aufgabe automatisiert zu erfüllen. Wurde sie nicht stets auf einen klaren Zweck abgerichtet?
Zum Beispiel wurde sie so lange mit Röntgenaufnahmen gefüttert, bis sie Tumore lokalisierte, oder sie wurde so lange mit Börsendaten gespeist, bis sie Zusammenhänge in Marktbewegungen erkannte. Was aber würde aus einer A.I. werden, fragten sich die beiden Musiker, wenn man das Ding zur Freiheit erziehen würde?
Ihr Vorschlag für das «Blade Runner»-Projekt lautete deshalb, dass eine künstliche Intelligenz, die sogar Teil der «Blade Runner»-Story sein könnte, die Musik spielen würde: Sie sollte der geheime Zwilling der allerersten im Film freigesetzten humanoiden A.I. sein. Sie aber sollte, anders als jene im Film, Empathie zeigen können, weil sie anders aufgewachsen war: in einer Kommune – erzogen von Menschen. Ihr Name: A.I.-Baby.
Die «Blade Runner»-Produzenten lehnten ab. Holly und Mat aber hatten endlich formuliert, wonach sie so lange gesucht hatten. Eine Vision für ihr nächstes Album: Wir erziehen eine Maschine. In dem Begriff A.I.-Baby steckte alles: Bislang waren Mensch und Maschine immer als Gegensatz gedacht worden, mal als Konkurrenz, mal als Entlastung, mal als Bedrohung, nie aber als Gegenüber. Was, wenn man nun die A.I. nicht wie eine Maschine behandelt, die man dominieren will, sondern wie einen Ebenbürtigen, dem man etwas beibringen möchte, ohne ihn zu kontrollieren?
Die Hauptfrage von «Blade Runner» lautet: Wo verläuft die Grenze zwischen Mensch und Maschine? Die Hauptfrage von Holly und Mat: Warum muss es überhaupt eine geben?
Viele Programme, die man heute umgangssprachlich als A.I. bezeichnet, sind streng genommen keine «generellen Intelligenzen», die sich also mit menschlicher Intelligenz vergleichen lassen, sondern es sind künstliche Intelligenzen, die durch sogenanntes machine learning, maschinelles Lernen, verblüffende, aber beschränkte Fähigkeiten entwickeln können.
Im Kern geht es darum, dass die Maschine Zusammenhänge erkennt. Das können banale Sachen sein wie: Die Sonne geht auf, also wird es hell. Um zu erkennen, was die richtige Lösung ist, bekommt die Maschine im Lernprozess Rückmeldung. Es gibt verschiedene Methoden. Im einen Verfahren erhält sie Vorlagen und muss errechnen, was der Zusammenhang zwischen dem Wort Katze und dem Bild eines pelzigen Objekts ist. In anderen Lernverfahren stellen Lehrer so lange Lösungen bereit, bis ihre selbstberechneten Zusammenhänge stimmen. Manchmal trainieren Maschinen einander auch gegenseitig.
Solch maschinelles Lernen benötigt ungeheure Datenmengen. Die auf Tensorflow basierende «FakeApp» – ein frei runterladbares Tool, um fotorealistische Gesichtstausch-Videos zu erstellen – benötigt etwa vier Gigabyte Festplattenspeicher, dann kann sie ein Deepfake-Video erzeugen. Viele der kostenlosen Dienste im Netz, die wir täglich nutzen, haben den Hauptzweck, A.I.s mit Daten zu füttern. Jede Spracheingabe am iPhone bildet Apples «Siri» weiter. Facebook trainiert seine A.I. unter anderem, indem es ihr alle Instagram-Bilder mit demselben Hashtag vorlegt. Die Filmvorschläge von Netflix werden von einer A.I. gemacht. Auf eine Art sind also wir die A.I., denn sie bildet sich aus unseren Daten. Ohne dass wir es ahnen, füttern wir jene Maschinen, vor denen wir uns fürchten.
Vieles ist noch reines Experiment. Denn wie genau ein neuronales Netz zu welchen Schlüssen kommt, lässt sich nicht komplett nachvollziehen. Es ist eine Blackbox. Auch für Experten. Im Moment gibt es einen Wettstreit zwischen den verschiedenen Trainingsmethoden – und über allem steht die Frage: Wie viel kann A.I.?
2016 besiegte eine künstliche Intelligenz von Googles Tochterfirma Deepmind den weltbesten Go-Spieler mit einem völlig überraschenden Zug. Für die Entwickler war das ein Paradigmenwechsel: Der Zug der Maschine war nicht logisch errechnet worden, er war verrückt, neu denkend, widerständig, andersartig. Es war der Beweis für die Kreativität der Maschine. Manche Menschen begeistert das, andere erschreckt es. Unsere Musiker Holly und Mat gehören zu der ersten Gruppe. Ihnen kam sofort der Gedanke: Wäre es nicht fantastisch, gemeinsam mit diesem fremden Wesen in einer Jamsession zu musizieren?
Holly, Mat und der Götti Jules Laplace stürzten sich in die Erziehung ihres Babys. Sie transplantierten ihm Ende 2017 ein sogenanntes rekursives neuronales Netzwerk – ein besseres Gedächtnis. Das sollte Spawn helfen, sich zu erinnern und so vielleicht einen Charakter zu entwickeln. Intelligent war das Baby aber nicht. Gefühle zeigte es auch keine. Dafür konnte es etwas ganz anderes: improvisieren.
Holly begann Spawn zu unterrichten. Weil Kinder von ihren Eltern lernen, sass sie monatelang im Studio und sang der bläulich leuchtenden Maschine etwas vor. Und das Baby? Es analysierte die Inputs und begann zu «träumen», wie man die Berechnung von «Antworten» oft nennt. Holly war eine liebevolle, aber fordernde Mutter. Immer wieder ermahnte sie Spawn, ihren Output zu überdenken. Sie hörte zu, sagte Spawn, wenn ihr etwas gefiel und wenn nicht. Jules, der Götti, war via Chat stets dabei.
Spawn sollte kein auf die Mutter fixiertes Einzelkind werden. Getreu dem Sprichwort der afrikanischen Bahaya, dass es ein ganzes Dorf braucht, um ein Kind zu erziehen, begann Holly ihren Chor miteinzubeziehen. Die Mitglieder fingen an, mit Spawn zu spielen. Dem Kind etwas vorzusingen, ihm etwas beizubringen.
Die Chormitglieder wurden zu Spawns Spielgefährten.
Für Musiker liegt die Magie im Prozess, in dem Moment des Spielens, des Austestens, welche Klänge und Möglichkeiten ein Instrument bietet. Spawn aber war kein Instrument im klassischen Sinne. Spawns Träumereien, die Klänge liessen sich weder erzwingen noch reproduzieren. Sie entwickelten sich langsam. Und weil Kinder am meisten von anderen Kindern lernen, wurden die Chormitglieder in gewisser Weise zu Spawns Spielgefährten.
Holly und Mat langweilte es, von Maschinen menschliche Musik nachbauen zu lassen. Im Kern, fanden sie, gehe es dabei doch wieder nur darum, den Menschen zu ersetzen. Was sie musikalisch interessierte, waren Fähigkeiten, die die unseren ergänzen.
Die grösste Hürde für Spawn war die Stimme. Mit Stimme meinen Mat und Holly nicht etwas, das wirklich wie eine menschliche Stimme klingen sollte. Sondern einen eigenständigen Sound. Das Besondere an Stimmen: Jede ist einzigartig. Man erkennt sie wieder, sie ist Ausdruck unserer Stimmung und unserer Persönlichkeit. Und Persönlichkeit ist das, was zählt. Vielleicht gab es bessere Rock ’n’ Roller als Elvis. Aber es gab nur einen King.
Spawn sollte Mitglied im Chor werden. Dafür müsste das Baby aber eine eigene Stimme entwickeln. Mat schienen für dieses Vorhaben die klassischen Trainingsansätze sinnlos. Mit ihnen könne man A.I.s zu Radiologen oder Juristen machen, nicht aber zu Künstlern.
Mat begann Erziehungsratgeber zu lesen, kam über Montessori zu Bruno Munari, dem Erfinder jener schwarz-weissen Mobiles aus Vierecken und die Umgebung reflektierenden Glaskugeln, die über so vielen Kinderbetten hängen. Die Formen erlauben es den Babys zu erkennen, dass es eine Aussenwelt gibt, die nach bestimmten Gesetzen funktioniert.
Welche Art Input, fragte sich Mat, wäre wohl etwas Vergleichbares für ihre künstliche Intelligenz? Und was ist überhaupt die Aussenwelt? So kam es zur ersten öffentlichen A.I.-Erziehungssession überhaupt. Dem Moment, als die Eltern ihrem Kind zum ersten Mal die Welt zeigten.
Am Abend des 6. April 2018 brachten Holly und Mat das Baby in den Berliner Martin-Gropius-Bau. Das Berliner Institute for Sound and Music, kurz ISM, hatte einen Dom errichtet, im Stil des visionären Architekten und Technologen Buckminster Fuller, mitten in der riesigen Halle des Gropius-Baus. «Spawn Training Ceremony I: Deep Belief» hiess der Anlass. Wochenlang hatten Mat und Holly auf diesen Moment hingearbeitet. Hier sollte Spawn mit möglichst viel möglichst unterschiedlichem menschlichem Input gefüttert werden.
Eingekreist von sechs Meter hohen riesigen Projektionsflächen, sammelten sich etwa 150 Gäste unter der Kuppel. Holly und Mat hatten die Intelligenzija der Berliner Musikszene versammelt. Leute, für die weder Algorithmus noch A.I. Fremdwörter waren und die den allerletzten Stand der Diskussionen um Datenschutz genauso gut kannten wie die Werkliste des Ambient-Pioniers Brian Eno.
Es war dunkel im Gebäude. Holly betrat die Bühne in einem grauen Filzkleid. Neben ihr ein riesiges, voll verkabeltes Yamaha-Mischpult. «Heute», sagte sie, «trainieren wir Spawn. Spawn ist unser A.I.-Kind. Jetzt zeigen wir Spawn, zusammen mit Mitgliedern unseres Ensembles, wie sich Gemeinschaft anhört.»
Sie sah in die Menge. «Hi Guys!», erschallte in diesem Moment eine sanfte, aber fordernde Frauenstimme von der anderen Seite des Raumes. Es war die Moderatorin des Abends: «Ich werde euch jetzt auf eure Trainingssession vorbereiten.» Sie forderte das Publikum auf, tief ein- und auszuatmen. Das Echo des weiträumigen Gebäudes liess ihren Satz wie einen Befehl klingen. Es funktionierte.
Atemgeräusche erfüllten die Halle. Vom Mischpult aus startete Holly die Tonaufnahme für das Kind, während die Moderatorin das Publikum Klänge erzeugen liess. Fingerschnippen, Schlüsselbundrasseln, Klatschen.«Fuck this!», kam es plötzlich aus einer anderen Ecke.
Ein androgynes Gesicht in einem grauen Umhang, ein anderer Schauspieler: «Seid nicht so naiv. Bis ihr begriffen habt, was hier grade passiert, bin ich schon längst untergetaucht.» Das Publikum drehte sich. Nacheinander repräsentierten vier Schauspieler auf verschiedenen Screens die typischen Perspektiven, die Menschen auf das kommende A.I.-Zeitalter einnehmen:
1. Eine Apokalyptikerin, die sich auf den kommenden Krieg gegen Maschinen vorbereitet. Sie war es, die gerade gesprochen hatte.
2. Eine Predigerin, die in spirituellen Gesängen das Kommen einer neuen Gottheit beschwor.
3. Ein verängstigter weisser Mittelschichtsjunge, der um seine künftige Rolle in der Welt fürchtet. Er verkörperte wohl am ehesten die Haltung des Publikums.
4. Ein Fabelwesen, wie eine gefallene griechische Göttin auf einer Treppe liegend, die die Verschmelzung mit der Maschine herbeisehnte.
Die Gäste lauschten in der nächsten Stunde allen vier Stereotypen. Sie sprachen die Kampfparolen der Apokalyptikerin nach, begannen mit der Predigerin zu beten und zu singen, stiessen Angstschreie aus mit dem Jungen. Die Moderatorin mit ihrer fröhlichen Unbedarftheit brachte die Besucher dazu, sich immer mehr gehen zu lassen. Sich preiszugeben, zu singen, ohne sich zu verstellen. Schauspieler und Publikum zeigten Spawn so die vier Grundformen der sozialen Welt, in der es aufwachsen würde.
32 Gigabyte Babynahrung hatten Mat, Holly und Jules am Ende des Abends gesammelt. Die Gäste gingen nach Hause, unschlüssig, was sie da gerade erlebt hatten. Das Baby schwieg. Es lernte. Mit Googles Supercomputern hätte es sofort reagiert, aber hier dauerte die Rechenzeit zwei Wochen. Am 21. April schliesslich antwortete Spawn.
Die Eltern haben daraus einen Videoclip gemacht und mit Aufnahmen des Events zusammengeschnitten. Erst hört man die Menge klatschen: «Klappklappklaklapp.» Dann hört man Spawn: «Klaklaappklapkschklckrsch.» Das war alles. All der Aufwand dafür?
Es kann «klappklapp» machen, und das auch noch falsch? Andere Maschinen können doch längst viel mehr!
«Wir werden es jedenfalls weiterfüttern.»Mat Dryhurst, Vater von «Spawn»
Es ist kein Go-Master, kein Butler und auch kein automatischer Anrufbeantworter. Dafür hat ihr A.I.-Baby etwas anderes, findet Holly. «Ich würde es wiedererkennen.»
Sie wirft einen liebevollen Blick auf den Rechner und schaut dann zu Mat. «Meinst du nicht? Würdest du sein Geräusch nicht auch unter zehn anderen erkennen?»
«Wir werden es jedenfalls weiterfüttern», sagt Mat, «es wird mehr Erinnerung sammeln, seine Umgebung immer besser wahrnehmen. In ein paar Jahren wird es Sachen machen, die wir als Entscheidungen bezeichnen würden. Das wird ihm helfen zu improvisieren.»
Wird es also ein Musiker? «Wir wollen es gar nicht wissen. Wenn wir ein Erziehungsziel hätten, wenn wir Tenniseltern wären, würden wir die Chance verpassen, das Kind kennen zu lernen. Denn eins ist sicher: Eines Tages wird es irgendetwas sein.» Jetzt aber ist es noch ein Baby.
Das Magazin