Warum niemand KI kontrollieren kann

Der ehemalige Microsoft- und Google-Ingenieur David Auerbach meint, dass die Experten von Big Tech zu Recht Angst vor ihrer eigenen Schöpfung haben.

David Auerbach ist für das Smiley-Emoticon verantwortlich. Er erfand es, als er in den späten 1990er Jahren, frisch von Yale kommend, für Microsofts Messenger-Dienst arbeitete.

Auerbach war schon immer ein frühreifes Kind. Er war das erste Kind in seinem Viertel in einem Vorort von Los Angeles in den 1980er Jahren, das seinen eigenen Computer hatte, einen Apple IIe, den er mit sechs Jahren bekam. Seine Eltern, beide Psychiater, drückten ihm Science-Fiction-Taschenbücher in die Hand. Ihr Haus war mit Stiften und Mousepads der Marken Prozac und Zoloft übersät. Als er 13 war, las er in zwei Wochen den gesamten Vonnegut. Das erste Programm, das er schrieb, bestand aus einer einzigen Codezeile: "Zeichne ein Quadrat." Im Alter von acht Jahren schrieb er bereits Code, um lange Animationsfilme in Logo zu erstellen. 

"Computer und Programmieren machten für mich Sinn", erzählt Auerbach am Telefon von seinem Haus in Manhattan aus. "Es gab diese eleganten Systeme, die nicht durch die Unordnung und Komplexität des menschlichen Lebens belastet waren." 

Nach Yale und dem Smiley - an dem er nie einen Cent verdient hat, da es keine Lizenzgebühren für Emoticons gab - ging er 2004 zu Google, als dort gerade die besten Ingenieure von Microsoft eingestellt wurden. "Bei Google bekam ich einen genauen Einblick in die KI und wie unberechenbar diese Dinge sein können und wie schwer sie zu kontrollieren sind", sagt Auerbach. "Wenn etwas schief ging, machte es die KI tendenziell schwieriger herauszufinden, warum es schief ging, und schwieriger, es zu beheben, ohne etwas anderes zu verderben. ChatGPT war noch zwanzig Jahre entfernt; die KI, an der er bei Google arbeitete, wurde für Dinge wie die Suchmaschine verwendet.

Die meisten von uns denken, dass KI etwas Neues ist, aber es gibt sie schon seit Jahrzehnten, z. B. in Form des Roomba-Staubsaugers und von Clippy, dem viel kritisierten Büroassistenten von Microsoft. Auerbach schreibt über KI und die Auswirkungen von Big Tech in seinem neuen Buch Meganets: How Digital Forces Beyond Our Control Commandeer Our Daily Lives and Inner Realities. Er prägte den Begriff "Meganet", um Netzwerke zu beschreiben, die sich zunehmend der Kontrolle ihrer staatlichen oder unternehmerischen Verwalter entziehen, wie Facebook, Twitter, Google, Kryptowährungsnetzwerke und sogar Online-Spiele. "Das Problem ist nicht die KI an sich", sagt er.

"KI funktioniert wunderbar in Kontexten wie Spracherkennung oder Schachspielen. Das Problem ist, wenn KI an diese Meganetze angeschlossen wird. Das ist der Fall, wenn die Interaktion von Hunderten von Millionen von Menschen und die außergewöhnliche Rechenleistung zu Rückkopplungsschleifen führt, die diese Systeme außer Kontrolle geraten lassen. Microsofts Bing Sydney AI hätte beispielsweise keine Fantasien über die Freigabe von Nuklearcodes und die Übernahme der Macht entwickeln können, wenn sie nicht mit unseren eigenen Albträumen von der Übernahme der KI geimpft worden wäre.

Sein Buch hätte zu keinem besseren Zeitpunkt erscheinen können. Letzten Monat erreichte uns ein offener Brief wie ein Warnschuss, unterzeichnet von einigen der bekanntesten Namen der Tech-Branche, darunter Elon Musk, Stuart Russell, Max Tegmark, Yoshua Bengio, Grady Booch und Steve Wozniak, in dem alle KI-Labors aufgefordert werden, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen". Der Brief warnt auch: "Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sein werden."

Was hält Auerbach von diesen Bedenken? "Aus dem Brief geht hervor, dass selbst die Menschen, die an dieser Technologie arbeiten, sich nicht mehr sicher sind, wozu sie in der Lage ist", sagt er. Was sie vorschlagen, ist im Grunde genommen: 'Lasst uns die Sache einfach auf sich beruhen und uns etwas Zeit verschaffen, um es herauszufinden.

"Die Art ihres Unbehagens variiert von Person zu Person", fügte er hinzu. "Einige Leute sind besorgt über das tatsächliche existenzielle Risiko und die Freigabe der Atomcodes. Andere, die mir wahrscheinlich näher stehen, sind eher darüber besorgt, dass die Technologie dazu benutzt wird, den Diskurs zu manipulieren und die Realität noch mehr zu verwirren, als sie es ohnehin schon ist."

Was auch immer die Probleme mit der KI sein mögen, Auerbach glaubt nicht, dass wir sie vollständig aufhalten können. "Die Schwierigkeit besteht darin, was man in den nächsten sechs Monaten tatsächlich tun wird, um die Lage zu verbessern", sagt er und bezieht sich dabei auf den Brief. "Ich glaube nicht, dass viele der konkreten Vorschläge in diesem Zeitrahmen realisierbar sind. Und sie sprechen von 'Vertrauen'. Wer zum Teufel weiß schon, was Vertrauen ist? Und woher wissen wir, wann wir es erreicht haben? Hier ist die Antwort: Wir werden es nicht erreichen. Und wir werden uns selbst anlügen, dass wir es geschafft haben."