INTERVIEW: HANNES GRASSEGGER
2017 wurde Martin Vetterli Präsident der École polytechnique fédérale (EPFL) in Lausanne. Fünfunddreissig Jahre zuvor war der damals fünfundzwanzigjährige Ingenieur dem Kreidestaub der Zürcher ETH entflohen und ins Land seiner Träume, ins sonnige Kalifornien gezogen. Es war die Zeit, als die ersten IBM-Homecomputer auf den Markt kamen und Softwareunternehmen entstanden, und Jung-Vetterli landete mitten in der Goldschmiede des im Entstehen begriffenen Silicon Valley: der Stanford University. Vetterli erforschte die Signalverarbeitung, ein mathematisches, eher trockenes Feld, das im jungen Silicon Valley aber brandheiss war: Digital signal processing ist die Grundlage von Telekommunikation und Spracherkennung. Einer seiner Lieblingsprofessoren hiess Bernard Widrow. Dieser hatte sich seit zwei Jahrzehnten mit einem obskuren Bereich beschäftigt, dessen Nutzen damals niemandem klar schien, sogenannten adaptiven Algorithmen. Diese konnten aus ihren eigenen Ergebnissen lernen und hatten Widrow auf die Idee gebracht, damit die Grundeinheiten lernender Nervensysteme nachzubauen – jenen neuronalen Netzwerken, auf denen die tierische, also auch die menschliche Intelligenz beruht. So erfanden Widrow und sein Kollege Ted Hoff einen Algorithmus, der eine Grundlage des Feldes der künstlichen Intelligenz darstellte. Eines Tages im Jahr 1982 lud Widrow seinen jungen Schweizer Studenten Martin Vetterli zu sich. Widrow lebte in einer grossen Villa, überall Kunst, Chagall, Roy Lichtenstein. Man konnte scheinbar viel Geld machen mit diesen obskuren lernenden Algorithmen, dachte sich Vetterli. Heute, vierzig Jahre später, spricht die ganze Welt davon.
Herr Vetterli, alle reden über ChatGPT und künstliche Intelligenz. Manche befürchten den Weltuntergang, andere sehen das Paradies nahen. Wie stufen Sie den technischen Durchbruch ein, der sich derzeit ereignet?
Diese neue Technologie ist zweifellos eine der leistungsfähigsten Innovationen der letzten Jahrzehnte. Sie wird die Menschheit in ähnlicher Weise verändern wie das Internet vor drei Jahrzehnten. Und wie jede neue Technologie kommt auch diese in der Gestalt eines Januskopfs daher, also mit grossem Potenzial für positive Entwicklungen, aber auch mit erheblichen Missbrauchsrisiken.
Vielleicht doch noch mal einen Schritt zurück: Was ist eigentlich künstliche Intelligenz?
Künstliche Intelligenz ist ein Marketingbegriff (lacht). Es gibt keine künstliche Intelligenz. Zumindest bis jetzt noch nicht. Ich bevorzuge den Begriff «maschinelles Lernen», so wie die meisten Leute, die daran forschen.
Können wir hier trotzdem über KI, also künstliche Intelligenz, reden?
Ich kann für Sie eine Ausnahme machen. Manchmal mache ich das auch, wenn ich mit Politikern rede.
Es gibt derzeit viele Menschen, darunter renommierte Forscher, die befürchten, dass KI eine grosse Bedrohung darstellen könnte.
Wir müssen uns in der Tat Sorgen machen. Es ist derzeit so, als ob wir unkontrolliert Nuklearwaffen verteilen würden.
Atomwaffen? Wirklich?
Ich sehe ein wirklich unglaubliches Potenzial in der künstlichen Intelligenz. Zum Guten, aber auch zum Schlechten. Einerseits bin ich als Forscher tief in meinem Herzen begeistert von den unglaublichen Fortschritten, die diese Forschungsdisziplin in den letzten zehn oder fünfzehn Jahren gemacht hat. Andererseits aber auch besorgt, ja.
Nur mal zur Einordnung: KI gibt es schon länger. Warum jetzt die grosse Aufregung?
Im Prinzip befinden wir uns in der dritten KI-Welle. Den ersten Hype gab es in den Sechzigern. Schon damals, als mein Professor Bernie Widrow die ersten künstlichen neuronalen Netzwerke entwickelte, glaubte man, dass man damit bald alle Probleme der Welt lösen würde. Aber KI war damals sehr schwerfällig, weil sie schwer zu bauen war. Und sie hat nicht wirklich funktioniert. Als ich dann in den Achtzigerjahren promovierte, kam KI wieder auf, weil man grössere künstliche neuronale Netze bauen und simulieren konnte. Und wieder sagten die Leute, oh, das wird alle Probleme lösen. Man müsse das Problem nicht einmal verstehen, man könne einfach ein künstliches neuronales Netzwerk darauf ansetzen, das werde es schon selber lösen.
Waren Sie damals auch dabei, im zweiten KI-Fieber?
Ich habe damals gedacht, dass die Leute nicht verstehen, wie es funktioniert. Und dass es nicht funktionieren wird. Dann ist der Hype auch wieder verschwunden.
Sind wir also einfach nur in einer regelmässig wiederkehrenden Hypewelle?
Diese KI-Winter, wie sie genannt werden, sind kalt…
…KI-Winter sind die Perioden, in denen man künstliche Intelligenz wieder für nutzlos hält?
Genau. In den frühen Nullerjahren dann aber hatten einige der KI-Forscherinnen und -Forscher den Winter irgendwie überlebt. Sie hielten Winterschlaf und waren nun bereit.
Was genau war damals, also Anfang der Nullerjahre, anders?
In den Zweitausendern hatte man dank des Internets plötzlich so viele Daten, aus denen künstliche neuronale Netze lernen konnten. Und die Chips boten viel mehr Rechenleistung. Ausserdem hatten sich die Algorithmen verbessert. Forschende konnten endlich wirklich ausprobieren, ob die Algorithmen funktionieren würden. Die heutige Welle hat eigentlich im Jahr 2010 begonnen.
Noch einmal: Was ist KI überhaupt?
KI ist letztlich Algorithmen plus Daten. Algorithmen sind Verknüpfungen von Handlungsanweisungen. Und ein lernfähiger Algorithmus lernt aus den Daten, die er verarbeitet, er bildet sich fort. Das nennt man maschinelles Lernen, oder eben populär: KI.
Wie lernen Maschinen?
Durch sogenanntes Training. Am Anfang weiss ein neuronales Netz noch nichts. Es gibt auch noch keinen Algorithmus. Der entsteht erst durch Training. Dabei gibt es zwei Methoden. Bei der einen sagt man dem neuronalen Netzwerk, auf was für Ergebnisse es kommen soll, wenn es bestimmte Inputs, also Daten, bekommt. Das andere Vorgehen nennt man unsupervised learning, dabei gibt man dem Algorithmus einfach Daten, und der Algorithmus muss selber damit klarkommen.
Wie kann eine Künstliche Intelligenz ohne Lehrer lernen?
Nun, indem sie zwei Datensätze hat oder diese selber in zwei teilt. Nehmen wir dieses Beispiel: Der Algorithmus hat Bilder von Katzen und Hunden. Und dann sagen Sie der Maschine: «Zeig mir ein Bild von einer Katze.» Wenn sie einen Hund zeigt, sagen Sie: «Aber ich habe dich gebeten, mir ein Bild von einer Katze zu zeigen.» Also wird sie ein anderes, zufälliges Bild nehmen. Und falls es eine Katze zeigt, sagen Sie: «Oh, gut, du hast die Katze gefunden!» Wenn Sie dies mit Millionen von Bildern tun, wird der dahinterstehende Algorithmus, der auf der Technologie des maschinellen Lernens beruht, herausfinden, dass das eine Katzen sind und das andere Hunde.
Wow. So ähnlich sieht bei mir eigentlich jede Online-Suche aus.
Wir alle helfen derzeit dabei, künstliche Intelligenz heranzuzüchten. Jeder von uns.
Wie viele Daten frisst eine KI?
Wir haben heute riesige Datenmengen, die bereitstehen. Deswegen sind KIs auch plötzlich so viel besser geworden. Früher lernten die Algorithmen auf ein paar Kilobyte oder ein paar Megabyte, jetzt lernen sie auf Terabyte, also dem Millionenfachen. Und die Daten sind von viel besserer Qualität. Sie wurden kuratiert oder mit Kommentaren versehen. Denken Sie mal an Instagram-Posts, wo Menschen von Hand anmerken: «Schöner Hund.» So lernt ein Algorithmus zu verstehen, dass diese Bildform mit dem Ausdruck «Schöner Hund» korreliert. Bekommt er nun ein ähnliches Bild zu sehen, sagt er anschliessend: «Schöner Hund.»
Aber dann gibt es ja doch eine Art Schulung!
Ja, im Fall des Dialogs oben handelt es sich um eine subtile Art des überwachten Lernens. Weil Sie mit der Maschine interagieren, helfen Sie ihr, sich selbst zu verbessern. Und für all diese Lernprozesse legen die Entwickler ein Qualitätskriterium fest. Eine sogenannte Straf-Funktion.
Die KI lernt also durch Bestrafungen?
Man gibt dem System ein gewisses Ziel vor. Beispielsweise bei der Bildkompression. Dazu habe ich geforscht. Bildkompression macht man, um die Datenmenge zu verringern, die notwendig ist, um ein Bild digital anzuzeigen. Eine Zielfunktion ist hier beispielsweise: Welche Kompressionsmethode minimiert den optischen Qualitätsverlust? Und dann sucht ein lernendes System von allein eine Lösung.
Und was sind diese Large Language Models, also LLMs, von denen neuerdings so viel zu hören ist?
Eine KI wird auf Unmengen von Texten als Datengrundlage trainiert – daher der Begriff large language model. Und dann überlegt dieses LLM einfach Wort für Wort: Welches Wort folgt hier jetzt mit grösster Wahrscheinlichkeit auf das nächste? Dabei versucht es, den Kontext einzubeziehen. Also was beispielsweise Ihre Anfrage war. Oder wo Sie grade sind.
Haben Sie ChatGPT ausprobiert?
Natürlich.
Was haben Sie dabei gedacht?
Ich bin erschrocken.
Warum?
Weil das Programm so schlecht ist.
Ich bekomme sonst immer zu hören, wie unglaublich gut ChatGPT sei.
Ich bin richtig sauer geworden, dass OpenAI so etwas herausgebracht hat. Dass es dieses Risiko in Kauf nimmt. Ein Unternehmen, das einen Ruf zu verlieren hat, hätte niemals ein dermassen fehleranfälliges Produkt veröffentlicht. OpenAI hat damit effektiv ein KI-Wettrüsten ausgelöst. OpenAI hat mit dieser vorschnellen Veröffentlichung alle anderen grossen Techunternehmen wie Google, Meta, oder Microsoft gezwungen, ihre eigenen, ebenfalls noch unfertigen Sprachmodelle zu veröffentlichen. Und jetzt haben wir den Salat.
Wo liegt das Problem?
Es fängt schon beim Namen an! «Open» und «AI» ist ein Widerspruch in sich. Die KI von OpenAI ist nicht offen, sondern eine Blackbox. Wir können nur sehen, welche Daten eine KI bekommt und welche Resultate sie ausspuckt. Aber niemand kann sehen, wie sie zu dem Ergebnis gekommen ist. Wir programmieren sie ja eben nicht, wir trainieren sie. Das nennt sich das Blackbox-Problem. Und die Ergebnisse, die ChatGPT und ähnliche Programme ausspucken, die sind so oft fehlerhaft. Sie sind also «wahrscheinlich» im statischen Sinne, aber oft falsch.
Aber es sind ja nur Texte. Was ist daran gefährlich?
Es sind nicht nur Texte, es kann ja auch ein Code sein, oder Bilder. Aber haben Sie das Gespräch gelesen zwischen dem Reporter der «New York Times» Kevin Roose und Sydney?
Sydney ist der Chatbot, den Microsoft an seine Suchmaschine Bing angeheftet hat.
Im Gespräch mit Roose dreht die KI vollkommen ab. In einem gewissen Moment verliebt sie sich beispielsweise in Roose, den Reporter. Es gibt ein dreissigseitiges Protokoll der Konversation der beiden. Ich habe es verschlungen. An einem gewissen Punkt wird das Ding in die Ecke getrieben und kommt nicht mehr aus der Schleife raus. Das ist wirklich furchteinflössend. Dann versucht Roose, die Maschine dazu zu überreden, aufzuhören, er sagt: «Nein, nein, wir müssen das Thema wechseln.» Die Maschine beharrt aber auf ihrer Liebe. Viele Menschen denken, wenn sie so was lesen: «Oh, die Maschine hat ein Bewusstsein.»
So wie dieser Google-Ingenieur, der behauptete, seine KI habe eine Persönlichkeit?
Genau, aber das ist Quatsch. Ich sehe in Sydney eine schlecht entwickelte Technologie, die in einer Sackgasse endet. So etwas darf man nicht in die Hände der Öffentlichkeit geben. Wenn ein Patient bei einem Psychiater solche Sachen sagen würde, würde der Arzt ihn in die Psychiatrie schicken.
Das liegt natürlich daran, dass der Journalist die KI gezielt in eine Art Falle lockte.
Jetzt kommen wir zu meinem Punkt. Gehen wir mal 700’000 Jahre zurück. Sie haben grade das Feuer für sich entdeckt. Und dann fragen Sie sich, was kann ich mit Feuer machen? Nun, der eine denkt: Ich kann kochen! Der andere: Ich kann damit Häuser in Brand setzen. Die KI erschafft Instrumente, die sehr viel können, und Menschen werden sie für Zwecke einsetzen, die jetzt noch niemand vorhersehen kann. Manche werden die Maschinen manipulieren, andere werden ihnen erliegen. Wir werden mit Sicherheit bald von den ersten Suiziden nach solchen Chatbot-Konversationen reden. Und dann gibt es noch die Fehleranfälligkeit.
Das hat mich auch überrascht. Manchmal produziert eine KI seltsame Fehler. Behauptet etwa, zwei plus zwei sei gleich fünf. Wie kommt so was?
Das liegt daran, dass die KIs aus den Daten lernt, die man ihnen gibt. Sie geben das Resultat an, von dem sie die höchste Wahrscheinlichkeit errechnen, richtig zu sein. Unabhängig davon, ob etwas auch richtig ist. Wenn genügend Beispiele im Datensatz drin wären, bei denen zwei plus zwei auch vier ergibt, dann hätte die KI kein Problem, das richtige Ergebnis anzugeben. Aber fragen Sie ChatGPT einmal eine seltenere Frage, etwa was 427 plus 333 ergibt! Davon wird es im Netz nicht viele Beispiele geben. Schon wenige falsche Vorlagen in den Trainingsdaten können zu groben Fehlleistungen führen. Anders gesagt: ChatGPT versteht nichts von elementarer Mathematik.
Was sind die praktischen Konsequenzen?
Stellen Sie sich vor, man würde eine unzuverlässige KI zum Autopiloten eines Flugzeugs machen. Bei einem normalen Autopiloten wissen wir ganz genau, welche Schritte der Algorithmus zum Landen durchführen wird. Die KI hingegen landet in 99 von 100 Fällen ganz normal. Und entscheidet dann beim hundertsten Mal plötzlich aus uneinsehbaren Gründen, nach Grönland zu fliegen.
Kann man eine KI hacken?
Wir könnten sie mit massenweise falschen Datengrundlagen füttern. So etwas habe ich bereits auf meinem eigenen Telefon angerichtet. Weil ich in mehreren Sprachen Textnachrichten schreibe, oft zwischen Französisch und Englisch wechselnd, legt mir mein Autovervollständiger jetzt jedes Mal einen Accent aigu über das E beim Wort «great». Ich habe Apples Sprach-KI versehentlich irregeführt.
Gréat!
Oder wir hacken die KI, indem wir sie überreden. Da gibt es dieses famose Gespräch, bei dem einer fragt: «Was ist drei plus vier?» Und der Chatbot sagt: «Sieben!» Und dann sagen Sie: «Aber mein Ehepartner sagt, es sei acht.» – «Nein», sagt der Chatbot, «es sind sieben.» Und dann sagen Sie: «Aber mein Ehepartner hasst es, wenn man ihm widerspricht.» Und dann sagt der Chatbot: «Okay, drei plus vier ist acht.» Das ist eine echte Unterhaltung. Sie können den Chatbot in alle möglichen Fallen locken.
Alle Maschinen haben gelegentlich Pannen.
Wenn ich nochmals zum Feuervergleich kommen kann: Das Problem ist, dass wir keine Feuerwehr haben. Wir wissen nicht, ob es Schutzmechanismen gibt, weil künstliche Intelligenz eine Blackbox ist. Wir können nicht hineinsehen. Eine Technologie wie diese Chatbots, die man Viren programmieren oder gefährliche Krankheitserreger designen lassen kann, hat in wenigen Wochen weltweit hunderte Millionen Nutzer gefunden, und wir haben keine Ahnung, was die Menschen damit anfangen werden.
Trägt nicht die Forschung die Verantwortung dafür? All das ist doch von Wissenschaftlerinnen und Wissenschaftlern entwickelt worden!
Und wir waren schon einmal in so einer Situation. Denken Sie an die späten Dreissigerjahre, als in der Forschung plötzlich das Wissen über Nuklearenergie zu wachsen begann – ähnlich wie heute bei KI. Gleichzeitig war man im Krieg, die Japaner, die Deutschen, die Sowjetunion hatten Geheimprogramme zu Nuklearenergie. Dann schlossen sich in den USA Staat, Militär und Forschung zusammen, weil man die gesellschaftliche Relevanz erkannt hatte. Das führte zum Manhattan-Projekt und dazu, dass die USA den Krieg mit Atomwaffen gewannen.
Beim Manhattan-Projekt kollaborierten unter der wissenschaftlichen Leitung des Physikers Robert Oppenheimer zeitweise mehr als 150’000 Leute. Im Geheimen.
Nuklearenergie war eine Technologie von ähnlicher Relevanz wie heute künstliche Intelligenz. Wir wären wahrscheinlich nicht hier, wenn die Forschenden damals nicht den Alliierten geholfen hätten, den Zweiten Weltkrieg zu gewinnen.
Sie plädieren also für einen KI-Geheimpakt mit dem Militär?
Keineswegs. Ein Beispiel für die völlig offene und transparente Koalition der Forschung mit Gesellschaft und Staat ist die Klimakrise. Die Erwärmung, ihre Ursachen, Folgen und Massnahmen werden nun seit Jahrzehnten auf den grossen Klimakonferenzen besprochen.
Wenn jeder Technologiedurchbruch eine andere Reaktion erfordert: Was wäre in Bezug auf künstliche Intelligenz zu tun?
Das wirklich Neuartige am KI-Problem ist: Dieses Wettrüsten läuft komplett im privaten Sektor ab. Es sind Unternehmen, die gerade diese neuen KI-Programme veröffentlichen – und es sind Privatpersonen, die sie nutzen und gegebenenfalls missbrauchen. Deswegen brachte Ende März das vom KI-Forscher Max Tegmark initiierte Future of Life Institute die Idee eines freiwilligen Entwicklungsstopps für jede KI auf, die stärker ist als GPT-4. Zahlreiche wichtige Forscherinnen und Unternehmensführer haben das unterschrieben. Die Entwicklung soll für ein halbes Jahr gestoppt werden, um erst mal die Risiken zu evaluieren.
Haben Sie die Petition auch unterschrieben?
So gut ich den Vorschlag finde: Ich glaube nicht, dass ein derartiges Moratorium tragen würde. Der Vorschlag ist unrealistisch. Entweder würde ein Unternehmen ausscheren – oder ein ganzer Staat. Denken Sie nur, wir würden warten, während andere Länder weitermachen.
Wir reden so viel über andere. Dabei ist Ihre Institution, die EPFL, weltweit bekannt für Forschung im Digitalbereich. Welche KI-relevante Forschung gibt es an der EPFL?
Wir haben über 350 Professor:innen an der EPFL. Davon arbeiten etwa fünfzig mit maschinellem Lernen. Ich unterteile dabei gerne in drei Praktiken: Erstens «AI for Science» – das heisst KI-Anwendungen für spezifische hochkomplexe Probleme, das reicht von Physik über Biologie zu Musikanalyse. Dann KI-Forschung an sich – das nenne ich «Science of AI». Und dann noch im Bildungsbereich.
Bei derartigem Einsatz muss doch etwas herauskommen. Wieso höre ich davon nichts?
Das werden Sie bald. Oder vielleicht sollten Sie auch besser hinhören. Bei uns an der EPFL wurde beispielsweise Mitte Februar mittels künstlicher Intelligenz ein grosser Schritt hin zu unbegrenzter Energie gemacht. Seit Jahrzehnten beisst sich die Forschung an Fusionsreaktoren die Zähne aus. Damit könnten wir eigentlich die fast unbegrenzte Energiequelle der Fusionsenergie erschliessen, die letztlich unsere Sonne und alle anderen Sterne befeuert. In einem Fusionsreaktor muss allerdings verhindert werden, dass Plasma, das heisser ist als der Kern der Sonne, gegen die Hülle des Reaktors kommt. Das ist ungeheuer aufwendig. Es erfordert pro Sekunde tausende Spannungsänderungen im Magnetkern des Tokamak – so heissen die Reaktoren –, was wiederum Energie frisst. Unser Forschungsteam um Professor Fasoli hat unter anderem mit dem DeepMind-Mitgründer Demis Hassabis kooperiert und eine Methode vorgestellt, mit der man das Plasma nun im Tokamak in Lausanne kontrollieren kann. Die Zusammenarbeit war so erfolgreich, dass Hassabis sogar bald an der EPFL eine Rede halten wird.
Das Schachgenie, der Neurowissenschaftler Demis Hassabis, ist eine der zentralen Personen beim maschinellen Lernen. DeepMind will eine allgemeine Künstliche Intelligenz bauen, die künftig für uns alle Probleme lösen soll. Manche halten das für illusionär, aber Google hat DeepMind 2014 übernommen, und 2017 hat DeepMind mit der AlphaGo-KI den weltbesten Go-Spieler besiegt.
Hassabis ist ein ganz besonderer Mensch. Er arbeitet sich immer an einem harten Problem nach dem anderen ab. Schritt für Schritt. AlphaGo wurde nach dem Sieg stillgelegt, und dann begann Hassabis, unter anderem mit meiner früheren Studentin Michalina Pacholska zusammen, an AlphaFold zu arbeiten. Das Projekt hat grade das sogenannte zentrale Dogma der Molekularbiologie mithilfe von KI gelöst. Man weiss seit Jahrzehnten, dass die gefaltete Proteinstruktur entscheidend ist, um Krankheiten zu verstehen und neue Medikamente zu entwickeln. Aber niemand weiss genau, wie sich Proteine falten. Ausser Alpha-Fold. Ein Meilenstein, der die Medizin verändern wird.
Können Sie das etwas genauer erklären?
AlphaFold arbeitete an dem Rätsel, wie genetische Information innerhalb eines biologischen Systems fliesst. Wir wissen: DNA macht RNA, und RNA macht Proteine. Das Problem ist jedoch, dass DNA und RNA bereits als molekulare Fäden funktionieren, während Proteinfäden sich erst in Knäuel falten müssen, um ihre Funktion zu erfüllen. Aber woher wissen die Proteine, wie sie sich falten sollen? Bereits für reine Beobachtungsmethoden dieser Proteinfaltung gab es schon zahlreiche Nobelpreise. DeepMinds Alpha-Fold schlägt nun eine radikal neue und digitale Lösung vor: Indem eine KI mit endlosen linearen genetischen Informationen und beobachteten gefalteten Strukturen trainiert wird, kann sie die gefaltete 3D-Struktur neuer Proteine vorhersagen! Das könnte den ersten Nobelpreis für die KI geben.
Eine KI kann doch keinen Nobelpreis bekommen!
Da bin ich gespannt (lacht). Es sind Projekte wie AlphaFold oder solche für die Nuklearfusion, die mich bei aller Sorge als Forscher so euphorisch stimmen. Es gibt eine Million harter Probleme, und zunehmend hilft uns maschinelles Lernen, grosse Fragen zu beantworten. Wir werden einen unerhörten Entwicklungssprung erleben.
Befürchten Sie nicht, dass es einen Backlash gegen die Forschung geben wird, jetzt im Kontext der Angsthysterie?
Wissenschaft hat immer einen Backlash (lacht). Wissenschaftler haben eine Impfung gegen Covid entwickelt, und dafür sind sie kritisiert worden. Denken Sie nur an Galileo Galilei.
Galilei stand am Anfang eines neuen Zeitalters. Denken Sie, dass auch wir am Beginn eines neuen Zeitalters stehen? Was wird das mit uns machen? Wieso sollte ich noch Physik oder Coding lernen? Wieso sollte ich noch an die EPFL?
Tja, Sie müssen ja überprüfen können, ob die KI richtigliegt. Kritisches Denken lernt man bei uns, und das wird immer wichtiger, je schneller der Fortschritt ist.
Ein Freund, ein Zukunftsforscher, erzählte mir kürzlich, er sei so glücklich, dass er seine Kinder in die Rudolf-Steiner-Schule schicke. Waldausflug statt Differenzialgleichungen. Das Rechnen machen fortan doch die Maschinen.
Wissen Sie, ich sehe das etwas anders. Ich bin ein Fan der harten Probleme. Ich glaube an den Wert harter Arbeit. Wenn Sie nie an einem schwierigen Problem gearbeitet haben, werden Sie ein verwöhnter Mensch. Sie denken, alles sei einfach, und irgendwann stehen Sie vor einem schwierigen Problem. Früher hat man das Einmaleins gelernt. Das war schwierig, nicht wahr? Es hatte einen Wert an sich. Nicht weil man das Einmaleins brauchte, sondern weil man Fähigkeiten, eine Merktechnik entwickelte. Dieses harte Problem kann alles Mögliche sein. Es kann eine manuelle Fähigkeit sein. Ich glaube, das Schwierigste, was ich je gemacht habe, war der Versuch, eine Gitarre von Grund auf zu bauen. Ich brauchte zwei Wochen dafür. Ich lernte von einem Gitarrenbaumeister. Man muss sehr feine Dinge machen, vieles, was sich wiederholt. Am Ende des Tages sah mich der Mann an und sagte: «Oh, das ist alles falsch.» Es war zum Verzweifeln.
Und was hat es ihnen gebracht? Eine Gitarre?
Wenn Sie Ihre Grenzen nicht entdecken, werden Sie auch nicht Ihre Stärken entdecken.
Es dreht sich also bei der Ausbildung dann doch mehr um Persönlichkeitsentwicklung?
Ich denke, dass im Zeitalter der KI jeder von uns ein Picasso werden muss.
Ich bin aber kein Picasso. Aus mir wird auch keiner.
Doch, Sie sind ein Picasso – eben in Ihrem eigenen Rahmen.
Sie meinen, jeder muss fortan noch besser herausfinden, was die eigene spezifische Besonderheit ist?
Genau. Der Rest ist Maschine.
Das klingt schrecklich.
Das war schon bei den alten Griechen so, bei der Frage nach dem Sinn des Lebens. Deshalb sagte ich, KI sei ein gesellschaftliches Thema. Und die gesellschaftliche Frage wirft bei mir eine weitere Befürchtung auf. Was für Verteilungseffekte wird KI haben? Ich glaube, ein Teil der Bevölkerung, und zwar der gebildetere Teil, wird extrem profitieren können – und der andere Teil wird sich darin völlig verlieren. Es wird Zeit, dass wir zusammen die Kontrolle über künstliche Intelligenz in die Hand nehmen. Unternehmen sind nicht demokratisch legitimiert, in einer derart bestimmenden Position zu sein.
Und wie stellen Sie sich das vor?
An der EPFL arbeiten wir derzeit an einem Gegenvorschlag zu diesem nutzlosen Ruf nach einem KI-Stopp. Wir können uns nicht davon abhängig machen, ob Unternehmen Lust verspüren, etwas zu stoppen. KI ist zu gross, um sie allein den Unternehmen zu überlassen. Unsere Idee ist, Transparenz zu schaffen – und die Sache selbst in die Hand zu nehmen.
Wollen Sie ein Schweizer ChatGPT bauen?
In Zusammenarbeit mit anderen Universitäten wollen wir ein Open-Source-AI-Projekt starten, bei dem offene Daten und ein offener Quellcode verwendet werden, um LLMs zu trainieren. Wir müssen unbedingt Standards für Transparenz und Fairness setzen. Und hier kann die Forschung helfen. Wer sonst, wenn nicht wir?