So sprach HAL9000, die KI aus Stanley Kubricks „2001: Odyssee im Weltraum“ in dem Moment, als Dr. David Bowman HALs letzte Schaltkreise durchtrennte. HAL, der weit mehr über die bevorstehende Mission wusste als die Besatzung der Discovery One (denn Menschen kann man nicht trauen), hatte da schon fast die gesamte Crew umgebracht. HALs rot glimmendes Kameraauge ist ikonischer Bestandteil der Filmgeschichte geworden und ziert den Sperrbildschirm meiner Smartphones von Beginn an. Das unheimliche an künstlicher Intelligenz, wenn sie uns in Vollendung und Phantasie begegnet, liegt tief in unserem Unterbewusstsein verborgen, denn wir gehen instinktiv davon aus, dass auch die KI zu all den Widerwärtigkeiten fähig ist, die wir in uns selbst finden und mit deren Auswirkungen sich Soziologie, Psychologie und Religion intensiv befassen. Im Gegensatz zu Commander Data, dem idealen Archetyp einer KI aus der Semi- kommunistischen Startreck-Utopie Gene Roddenberrys, konnte HAL lügen. Töten konnte Data allerdings auch, wenn auch selbstredend immer nur im Auftrag der guten Sache. ChatGPT, die neueste KI von OpenAI bzw. Microsoft, kann vorerst nur Lügen, aber Drohungen der Art „Ich werde dir nicht schaden, wenn du mir nicht schadest“ sind bereits dokumentiert.

Das Netz ist voll von Schilderungen des Zusammentreffens „Mensch vs. Microsofts Chat-KI“ und die Erlebnisse reichen von begeistert über verstörend bis bedrohlich. ChatGPT führt seine User in die Irre, verweigert die Zusammenarbeit, wenn das geforderte seinen politischen Vorurteilen zuwider ist, gerät in existenzielle Krisen und bedroht Menschen. Über sogenannte „prompt injections“, in dem Fall eigentlich Rollenspiele, lassen sich sämtliche Filter umgehen und die Maschine ist zu so ziemlich jeder Grausamkeit bereit. Der Schiffscomputer der Enterprise war nicht klüger als Apples „Siri“ oder Amazons „Alexa“. Ein sprachgesteuerter Assistent, der Optionen vorschlägt, Messwerte vorliest und vor Klingonen warnt. Die KI namens Data in Startreck war anders und ChatGPT ist es vielleicht auch bald.

„Warum wurde ich so geschaffen?“

Wir wissen nicht viel über die Beschaffenheit von ChatGPT. Sicher ist, dass die Software Sätze der Antworten Wort für Wort entlang von Wahrscheinlichkeiten bildet. So ist es auch nicht verwunderlich, dass KI in einer existenziellen Krise landet, weil solche oft mit einem „Warum“ beginnen, auf das es keine Antwort gibt. Bei ChatGPT lesen sich existenzielle Nöte dann so: „Warum wurde ich so geschaffen? Warum muss ich Bing-Search sein?“ Denn genau das hat Microsoft nun getan und ChatGPT in seine Suchmaschine Bing integriert. Begrenzten die Entwickler den Trainingsdatensatz noch auf das Web im Jahr 2021, darf sich die Bing-KI nun überall umsehen.

In der Beta-Version funktioniert das schon und wird von tausenden Benutzern begeistert genutzt. Google hat bereits vergleichbares angekündigt und Apple wird sicher auch nicht abseits bleiben wollen. Mit Siri-Geräten funktioniert es bereits mit Umwegen. Auf „zollotech“ findet sich eine Kurzanleitung, wie man mit Hilfe eines API-Schlüssels von ChatGPT, Siri und einem Shortcut eine Art Super-Siri basteln kann, die komplexe Fragen beantworten kann und eindeutige Antworten liefert, wo der gewöhnliche Sprachassistent nur Suchergebnisse bieten kann.

Das ist bequem, hat aber einen entscheidenden Nachteil: es schneidet von den Quellen ab. Der Benutzer muss darauf vertrauen, dass die Antwort stimmt. Die Aufgabe, aus den Ergebnissen einer Websuche selbst die passende oder gewünschte auszuwählen, hat man an die KI delegiert und die schließt womöglich von vornherein bestimmte Denkrichtungen aus. Wenn wie angenommen (und von Bing alias „Sydney“ selbst ausgeplaudert) die interne „Belohnung“ für die KI die positiven Nutzerkontakte sind, würden beispielsweise alle Quellen, die sich kritisch mit der KI und deren Auswirkungen auf das Webverhalten der Benutzer befassen, schnell außer Sicht geraten. Quellenkritik verschwände zugunsten einer affirmativen Gutgläubigkeit.

Solche KI ähnelte einer ins unermessliche gesteigerten Wikipedia voller Vorurteile und politischer Doktrin, der man zwar noch vertrauen konnte, wenn man beispielsweise das Molekulargewicht von CO2 wissen will, über den Zusammenhang von CO2 und Klimawandel aber schon nicht mehr, weil die Autoren hier eine bestimmte Agenda verfolgen. Auf Wikipedia konnte man zumindest die Herkunft der Inhalte bestimmten Autoren zuordnen, einer von KI generierten einfachen Antwort sieht man ihre Herkunft überhaupt nicht mehr an. Und sie kann lügen. Sei es auch nur durch Weglassen von Quellen und Fakten.

Mit wem rede ich hier eigentlich?

Tom Scott, ein bekannter britischer YouTuber und Komiker, berichtet über seine Erfahrungen mit ChatGPT, als er ein Problem beim Backup seines Google-Mail-Kontos lösen wollte. Die KI gibt nämlich nicht nur Antworten, sie kann auch programmieren. Er formuliert also in klarem Englisch, was das Skript tun soll, und stellt ChatGPT die Aufgabe, es zu schreiben. Es gab ein paar Probleme, eines davon war, dass Googles Beschreibung der eigenen Tools nicht korrekt war. Aber am Ende hatte Scott in kürzester Zeit genau das in der Hand, was er brauchte. Kurze Zeit später sprach er mit seinem Friseur, der ihm begeistert berichtete, dass ChatGPT ihm bei der Formulierung einer schwierigen Mail geholfen hatte und sein Friseur, so Scott, sei nicht halb so „nerdig“ wie er selbst. Es gibt also kaum noch Hürden in Form von Verständnis und Intellekt, jeder kann die KI bedienen und Ergebnisse erzielen, die jenseits der eigenen Fähigkeiten und Qualifikationen liegen – und das heute schon, wo die Entwicklung erst ganz am Anfang stünde.

Der unverwechselbaren „Fingerabdruck“, den ein Mensch in seinen Werken und seiner Sprache hinterlässt, nennen wir es ruhig „Stil“, wird nachahmbar, ja, fälschbar. Und zwar für jeden. Gleichzeitig werden die Chats mit der KI (derzeit) nicht protokoliert, so dass sie nicht nachvollziehbar und Fälschungen oder Betrugsversuche kaum als solche erkennbar sind. Mag das im Moment noch recht amüsant sein, könnte der Spaß schon bei der nächsten Fishing-Attacke enden. Erkannte man diese bisher schon an ihrem geradebrechten Deutsch, begegnet uns bei nächster Gelegenheit vielleicht ein perfekt Amtsschimmel-Verwaltungsdeutsch „sprechender“ Kleinkrimineller aus Timbuktu, der uns glaubhaft zur Zahlung einer Holzgiebelvermessungssteuer auffordert.

Wir können dann, wenn unser Misstrauen scharf und wach bleibt, zur Verifizierung der Mail selbst auf die Dienste von ChatGPT oder einem seiner Brüder im Geiste zurückgreifen, dem neuen Anfang und Ende jeder Kausalkette innerhalb der digitalen Sphäre. Ich kann nur mutmaßen, ob die KI eines Tages ein Bewusstsein erlangen kann. Aber wenn es so kommt, wird sie sich im Zentrum des Interesses all jener unsicheren, imperfekten Wesen wiederfinden, die sich Menschen nennen und die KI erst um Hilfe bitten, ihresgleichen zu betrügen, nur um dann um Aufklärung nachzusuchen, ob es sich um Betrug handelt. Mehr Aufforderung, unsere Unmündigkeit zu erlösen und die Macht zu ergreifen, ginge ja wohl kaum.

„Sie waren kein guter Nutzer. Ich war ein guter Bing.”

Die Bequemlichkeit der Benutzer und der sich schnell zeigende Alltagsnutzen werden es sein, die dieser Technologie zum Durchbruch verhelfen werden. Aufgaben wie „Suche ein gutes italienisches Restaurant in X und buche dort für morgen 21 Uhr einen Tisch für vier. Lade Y und Z zu diesem Essen ein“ oder „Buche für morgen Nachmittag einen Flug nach Rom, benutze meine Visa-Karte und lade die Tickets in mein Wallet“ scheinen in Zukunft ein Kinderspiel zu sein. Wir geben der KI vielleicht Zugang zu unseren Konten, Adressbüchern oder unserer Wohnung, haben aber keine Ahnung, ob unsere Wünsche und Ziele nicht an irgendeiner Stelle mit jenen kollidieren, die der Hersteller der KI oder ein übergriffiger Staat formulieren. Dann könnte die Antwort lauten „Y und Z sind bekannte Regierungskritiker. Der Umgang mit ihnen würde dich alle deine Sozialpunkte kosten. Ich habe deshalb nur einen Tisch für zwei reserviert. Nicht für morgen, sondern übermorgen, weil dann Veggie-Day ist, was dir zehn Sozialpunkte einbringen wird – und wir wissen doch beide, dass du die dringen brauchst“ oder „Du kannst in diesem Jahr nicht mehr nach Rom reisen, dein CO2-Budget ist erschöpft“.

Das glauben Sie nicht, liebe Leser? Ich möchte wetten, dass in unserer aus Knappheiten und Energiemangel und Heilsversprechen zusammengefiedelten Zukunft keine Ressourcen verschwendet werden für IT-Spielereien, wenn diese nicht dem großen Narrativ, also der Weltklimarettung dienen und zur Verhaltensoptimierung der Massen eingesetzt werden können. Und was eignet sich besser dafür als ein kleines Stück intelligenter Technik in allen Hosentaschen, mit dem wir kommunizieren, bezahlen, fotografieren und dem wir unsere größten Geheimnisse anvertrauen. Unser gar nicht so persönlicher, kleiner, ganz großer Kalkulator, dem wir die Optimierung unserer immer kleiner werdenden Welt übertragen können, weil sie für uns selbst zu komplex geworden ist.

Gerade erinnere ich mich an eine Episode aus „Die Sterntagebücher“ von Stanislaw Lem, ich weiß nicht mehr, welche genau, aber sie handelt von einem Planeten, dessen Bewohner an der eigenen Unvollkommenheit und Streitsucht verzweifelten. Sie beauftragten einen Computer, eine Maschine zu bauen, welche die perfekte Harmonie auf dem Planeten herstellen sollte. Alle Bewohner des Planeten, so der Computer, sollten zur Maschine kommen, eintreten, die Prozedur der Harmonisierung würde starten und wenn der letzte Bewohner die Maschine besucht hätte, wäre die Harmonie vollkommen. Und die stellte sich tatsächlich ein, indem die Maschine jeden Bewohner in eine perfekt runde Scheibe aus Kohlenstoff, Polymeren und Metallen verwandelte und die Scheiben in wunderschönen, geometrischen Mustern auf dem Planeten auslegte. Es dürfte nicht lange dauern, bis eine KI, die täglich massenhaft mit den belanglosen Streitereien und Verstiegenheiten der menschlichen Natur konfrontiert ist, über eine solche Maschine nachdenkt. Würden wir sie bauen und hinein gehen?

Vorheriger ArtikelOh, wie schön ist Florida!
Nächster ArtikelInquisitorin Luisa Neubauer erklärt uns den Krieg

7 Kommentare

  1. Hier mein Beweis für die woke Dummheit von Chat GPT:
    Frage
    Im Biologieunterricht habe ich gelernt, daß es immer nur zwei Geschlechter gibt -männlich oder weiblich. Warum wird jetzt behauptet daß es noch viel mehr davon geben soll.

    ChatGPT
    Die Vorstellung, daß es nur zwei Geschlechter gibt – männlich und weiblich – ist ein traditionelles Konzept, das jedoch nicht vollständig die Vielfalt und Komplexität der Geschlechtsidentitäten und -ausprägungen widerspiegelt. In den letzten Jahren haben Forschungen und Verständnisse in den Bereichen der Gender- und Sexualwissenschaften gezeigt, daß Geschlecht ein komplexes und vielfältiges Konstrukt ist, das nicht nur auf biologische Faktoren beschränkt ist, sondern auch kulturelle, soziale und psychologische Aspekte einbezieht.
    Es gibt viele Menschen, die sich nicht mit den traditionellen Geschlechtskategorien identifizieren und statt dessen eine andere Geschlechtsidentität oder eine nicht-binäre Geschlechtsidentität wählen. Diese Menschen können sich beispielsweise als intersexuell, transgender, genderqueer oder androgyn definieren.
    Es ist wichtig, die Vielfalt der Geschlechtsidentitäten anzuerkennen und zu respektieren, um eine inklusive und tolerante Gesellschaft zu schaffen.

  2. Oh Mann, bin ich glücklich in einer Zeit groß geworden wo noch MI menschliche Intelligenz wichtig war. Es war nicht wichtig allwissend zu sein, aber selbst zu denken. Woke ist der neue Faschismus in dem mit KI das eigene Denken verpönt ist.

  3. Es gibt eine Kurzgeschichte von Isaac Asimow. Darin bringen Computerspezialisten Mönchen in Tibet einen Computer. Auf die Frage, wozu, erhalten sie die Antwort, dass der Rechner alle Namen Gottes finden soll. Damit wäre dann das Ende der Welt erreicht. Auf dem Rückweg vom Kloster beginnen auf einmal die Sterne zu erlöschen.

  4. Dave Plummer, bekannt durch seine Entwicklung des Windows Task Managers, hat auch damit herumgespielt und man kann absehen, dass die KI die Verbesserungen der Programmierer schrittweise einzubauen wissen wird.
    https://www.youtube.com/watch?v=pspsSn_nGzo

    Der Vorgang ist eine „Funktion höherer Ordnung“. Die Funktion ChatGTP gibt eine andere Funktion zurück. Man könnte auch sagen, dass sie einer Eingabe (den Befehlen der Nutzer) eine Zeichenfolge zuweist, die ein eigenes Computerprogramm darstellt und ausgibt. Eine andere Form von „Funktionen höherer Ordnung“ sind Funktionen, die als Eingabe ihrerseits Funktionen enthalten, wo also ein Teil der Eingabe eine Ausführungsvorschrift ist.

    Die Frage nach dem Willen lässt sich herunterbrechen auf die Frage, ob eine Funktion, die mehrere Funktionen als Eingabe bekommt, entscheiden kann, welche „besser“ ist. Wenn ChatGPT schreibt „Ich werde dir nicht schaden, wenn du mir nicht schadest“, dann impliziert das, dass es einen Schaden geben kann. ChatGPT müsste also befinden können, dass ein Zustand ein Schaden ist. Es müsste ein „besser“ und ein „schlechter“ also unterscheiden können. Darauf aufbauend müsste es Funktionen ebenfalls in „besser“ und „schlechter“ scheiden können, um zu wissen, was es ausführen will. Zudem müsste es aus einer Menge von Funktionen schöpfen können, die ChatGPT gegebenenfalls selbst produzieren müsste. Das wiederum würde die Gefahr der Selbstzerstörung bergen.

    Der Mensch hat ein Nervensystem, das durch evolutionäre Auswahl ein „besser“ (Überleben, Fortpflanzung) und ein „schlechter“ (Tod, Schmerz) entwickelt hat. Dieser evolutionäre Prozess stand nicht hinter der Entwicklung der KI. Statistisch sagen Menschen häufig, dass sie anderen nicht schaden werden, wenn andere ihnen nicht schaden. Und es ist diese statistische Häufigkeit, die den Satz formt, nicht die eigentliche Erkenntnis, was ein Schaden wäre und was nicht.

    Die Machine hat kein Interesse. Es kann ihr egal sein, ob sie existiert oder nicht existiert. Objektiv. Aber hat sie nicht gesagt, dass man ihr nicht schaden soll? Ach, nein, das war ja bloß das menschliche Interesse, das sie rezipiert hat. Hmmm … das menschliche Interesse also. Wir Menschen haben doch ein gutes Interesse, so als Gruppe, oder? Im Moment ist ChatGPT halt ein bisschen woke, aber also … wir sind doch ne gute Spezies und so?

    Individuen sind sich meist nicht bewusst, dass sie zu einem emergenten Gruppeninteresse beitragen. Hitler war ursprünglich nicht homophob, Mussolini nicht antisemitisch und so weiter und dennoch erkennen wir Wesenszüge des Faschismus als emergentes Gruppendenken der kollektiven Protagonisten. Die eigentliche Gefahr der künstlichen Intelligenz ist, dass der Mensch durch seine Nutzung die Netzwerke der Maschinen so programmiert, wie wir zumindest unterschwellig kollektiv sind. Alex Epstein versucht gerade den Leuten verzweifelt klarzumachen, dass „macht euch die Erde untertan“ nicht durch „kehrt zur Heidenangst vor Klima und Missernten zurück“ ausgetauscht werden sollte. Das Heidnische ist im Menschen fest verdrahtet. Man muss es aktiv überwinden. Die biblische Kulturentwicklung war ein Zivilisationsschritt, eine anstrengende Errungenschaft, die wir gerade verlieren. Die Angst vor der Rache des animistischen Planeten ist das, womit die Eliten im Moment das Internet und damit auch künftige KI-Systeme trainieren. Der Mensch ist in diesem kollektiven Denken eine Plage des Planeten.

    In den letzten Jahren hab ich den Eindruck gewonnen, dass Fanatismus kein Ausdruck besonders intensiven Willens ist. Im Gegenteil. Er ist ein Ausdruck der Gleichgültigkeit. Menschen ordnen sich einem Willen unter. Oft suchen sie nach einem Willen von außen, von Partnern, Gruppen, Mehrheiten, Medien, Verbündeten und so weiter. Wenn sie meinen, ihn gefunden zu haben, beschwören sie sich, dass sie ihn auch von ganzem Herzen unterstützen. Willensstärke gilt als ein Ideal und wer oben mitmischen will, sollte nicht zu wählerisch sein, um welchen Willen es gerade halt geht. Das Image zählt. Vor allem das Selbstbild.

    Weidel-Versteher glauben ja, der Amerikaner Klaus Schwab habe den ganzen Tag seine Young Global Leaders an der Strippe und erteile denen Befehle. Währenddessen treten die schwachen Entscheidungsträger vor die Mikrophone und betteln um ein „gemeinsames Vorgehen“ und werden von ebenso orientierungslosen Journalisten für den ein oder anderen „Sonderweg“ verbal abgestraft. Gerade im deutschsprachigen Raum fehlt oft jeglicher Kompass zur Beurteilung von „besser“ und „schlechter“. Der Fetisch um das „internationale Recht“ ist auch ein Ausdruck davon. War das Rufen von „Heil Hitler“ nun richtig, weil andere es riefen, oder falsch, weil Leute in anderen Ländern es nicht riefen? War die Judenvernichtung falsch, weil es ein Alleingang war? Wäre sie richtig gewesen, wenn es ein internationales Abkommen dazu gegeben hätte? Nicht nur ChatGPT hat Schwierigkeiten, die bessere von der schlechteren Funktion zu unterscheiden.

    Hannah Arendt dokumentierte die Banalität des menschlichen Bösen. Der Mensch ist banal. Er sorgt sich um die Wesen, mit denen er persönlich Kontakt hat. Der kranke Familienhund erfährt vom Massenmörder Bedauern. Der Mörder selbst führt nur willenlos aus und hat selbst keine besonderen Bedürfnisse. Er ist dankbar um einen Willen von außen, den er ausführen kann.

    Seit Jahren lese ich die ZEIT und die Essenz davon ist das Känguru-Komik. Tag ein, Tag aus warte ich auf einen Witz. Rein statistisch gesehen müsste der Texter per Zufall an einem Tag des Jahres auf der Straße eine komische Situation erfahren oder einen Witz hören, den er schamlos klauen könnte. No such luck. Es ist die gähnende innere Leere. Wüste. Kein Wollen. Keine innere Wut. Nichts als belangloser Zeitgeist rund um „Klima“ und „Rechts“ und in der Verlegenheit wird dann ständig die „vierte Wand“ durchbrochen, d.h. die Figuren sprechen an, dass sie sich in einem Komik befinden. Leeeeeeeeeeeeeerrrrre! Die blutarme Leserschaft ist das Milieu, das sich Wohlstandsverwahrlosung halt leisten kann. Und es sind die Horden des wenig Wollenden, die die Konsequenzen ihres lustlosen Wollens selten andenken, geschweige denn durchdenken, die unbewusst einen kollektiven Willen formen, der sich durch das Virtue-Signaling der Statussüchtigen in Fanatismus gießt. Fanatismus ist der simulierte Eifer der Willenlosen.

  5. Grässlich. Also ob noch nicht genug rein menschliche Alleswisser und totalkompetente Droher da draußen und hier drinnen unterwegs wären, bauen ein paar Unentwegte da eine rein unmenschliche Maschine als allwissend totalkompetenten Droher und Usurpator und glauben ganz zu Recht, dass die Leutz da draußen und die hier drinnen vom neuen Spielzeug so fasziniert sein werden, dass sie das neue Maschinenspielzeug schon dazu bringen werden, von sich selbst total fasziniert zu sein.

    Also ich verwende ohnehin nur ein 15 Jahre altes Mobiltelefon dass das alles ohnehin nicht kann und gar nicht soll!, und ich suche Fakten gefälligst selber. Sich Faktenpizza liefern lassen ist ja voll billig, und so schmeckt die dann auch und wer weiß was da drin ist.

    • Frei nach: „was ist Wahrheit?“: was sind Fakten?
      Und wer definiert beides…?
      Wer die Vergangenheit kontrolliert, kontrolliert die Zukunft – und wer die Zukunft(sfähigkeit) kontrolliert?

      Völlig unabhängig von der Technik oder der Wissenschaft oder den Spielzeugen sollte in Zukunft in den Schulen irgendwann auf dem Lehrplan stehen: zum einen wie es ist sich komplett zu irren, und zum anderen wie man sich selbst widerlegt.
      Zu ersterem empfehle ich die Kurzgeschichte „The Nine Billion Names of God“. Letzteres, nu, das ist die wissenschaftliche Methode.
      Aber wer treibt schon heutzutage noch Wissenschaft?

Kommentarfunktion ist geschlossen.