KI - künstliche Intelligenz oder kognitive Inkontinenz?

KI - künstliche Intelligenz oder kognitive Inkontinenz?

 

                                                                                                                       Von Jens-Michael Groß

 

 

Kaum ein Produkt kommt heutzutage noch ohne 'Künstliche Intelligenz' ('K.I.'oder 'KI', im Englischen 'Artifical Intelligence', 'A.I.') aus. Jede App, die etwas auf sich hält, aber auch jedes noch so simple Haushalts- oder Unterhaltungsgerät arbeitet mit KI. Wo vor wenigen Jahren noch 'smart' vor der Produktbezeichnung stand (wir erinnern uns alle noch an 'smarte' Kühlschränke, die prompt nachbestellt haben, was wir endlich entsorgt hatten), ziert jetzt ein 'KI' die Beschreibung.

 

 

Aber was ist eigentlich 'künstliche Intelligenz' - und was ist Intelligenz im Allgemeinen und wie misst man sie?

 

Fragt man ein Lexikon, so ist Intelligenz "eine aus mehreren Komponenten bestehende Fähigkeit, die es dem Menschen ermöglicht, in seiner Umwelt Sinnzusammenhänge und Kausalitäten zu erkennen und aus seinen Beobachtungen eigenständig Problemlösungen zu entwickeln".

 

 

Um Intelligenz zu quantisieren, also das Ausmaß an Intelligenz zu beschreiben, wurde 1905 vom Franzosen Alfred Binet ein Intelligenztest entwickelt, der die Fähigkeit, bestimmte für ein gewisses Lebensalter typische Aufgaben zu lösen durch das Alter des Probanden teilt. Ein Siebenjähriger, der es nur schafft, Aufgaben zu lösen, die im Allgemeinen ein Sechsjähriger lösen kann, hatte also eine Intelligenz von 0,86, umgekehrt eine von 1,17. Mal 100 ergibt das einen IQ von 87 bzw. 117. Daher auch die Bezeichnung 'Intelligenzquotient' Er gibt Intelligenzleistung geteilt durch Lebenserfahrung an. Also mithin die Fähigkeit, sein Wissen auf (neue) Probleme anzuwenden. Das Rezitieren von bereits bekannten Lösungen (Wissen) ist hingegen keine Intelligenzleistung. Deshalb ist ein Lexikon auch nicht intelligent, trotz des immensen darin gespeicherten Wissens.

 

 

Was ist nun also unter 'künstlicher Intelligenz' zu verstehen? Der Definition nach müsste es ein künstliches Konstrukt sein, welches ein neues Problem versteht und mit Hilfe seines Wissens löst.

 

 

Damit ist ein Algorithmus, der ein bekanntes Problem löst (etwa ein Taschenrechner) zwar künstlich, aber nicht intelligent. Intelligent war hier lediglich der Entwickler, der den Algorithmus geschaffen hat.

 

 

Der bekannteste Vertreter der momentan 'gehype'ten KIs sind die Large Language Models (LMMs) wie etwa 'ChatGPT'. Um zu beurteilen, ob LLMs die Bezeichnung 'künstliche Intelligenz' überhaupt verdienen, muss man wissen, wie sie funktionieren. Stark vereinfacht ist ein LLM eine Kombination aus einer Datenbank (Wissen), einem Parser für die Aufgabenstellung (Problemerkennung)  und einem Algorithmus zur statistischen Auswertung der Datenbank unter der Berücksichtigung der Aufgabenstellung. Zunächst einmal also dieselbe Kombination, die auch die Intelligenz eines Menschen ausmacht.

 

 

Der wesentliche Unterschied liegt aber in der Lösungsfindung. Der Mensch sucht zunächst einmal nach einer fertigen Lösung in seinem Wissen. Fertige, bereits bekannte Lösungen anzuwenden ist keine Intelligenzleistung. Eine passende Lösung aus dem vorhandenen Wissen auszuwählen könnte man hingegen als (nicht allzu große) Intelligenzleistung betrachten, aber auch diese wird von vielen Schülern und Studenten nicht erbracht, wenn sie versuchen, Ihre Hausaufgaben mittels fertiger Lösungen von Google zu erledigen. Was bedeutet, dass sie die eigentliche Aufgabenstellung, nämlich ihren Verstand durch Finden einer eigenen Lösung zu schulen, nicht begriffen haben. Manch einem Studenten sollte man maximal einen Master in Googeln zuerkennen, aber keinen Ingenieurstitel.

 

Führt die Suche nach einer bekannten Lösung zu keinem Ergebnis, wird versucht, durch Kombination bekannter Lösungen oder die Anwendung von Analogien zu einer Lösung zu kommen. Ist auch dies nicht mit Erfolg gekrönt, wird mitunter auch schlicht geraten und geprüft, ob das Ergebnis das Problem erfolgreich löst. In all diesen Fällen ist eine Grundvoraussetzung für einen Erfolg, dass das eigentliche Problem inhaltlich verstanden wurde.

 

 

LLMs arbeiten auf eine gänzlich andere Weise

 

Ihr Wissensschatz ist gigantisch. Die Datenbank, auf die ein LLM zurückgreift, wurde mitunter aus Milliarden von Dokumenten aus dem Internet zusammengestellt. Das LLM lernt aus diesen Dokumenten aber nichts über die Welt, sondern lediglich, welche Wörter mit welcher Wahrscheinlichkeit auf welche anderen Wörter folgen, wenn bestimmte dritte Wörter in demselben Dokument auftauchen. Oder vereinfacht, es lernt das typische Verhältnis bestimmter Wörter zueinander, ohne aber ihren Sinn oder inneren den Zusammenhang zu (er)kennen.

 

Stellt man einem LLM dann eine Frage, so wird, stark vereinfacht, die Antwort nach einem vorgegebenen Schema zusammengestellt. Beispielsweise:

 

 - laut Datenbank beginnen die meisten Dokumente, in denen Schlüsselwörter der Fragestellung vorkommen, mit dem Wort 'Ich'.
 - nach 'Ich' kommt mit größter Wahrscheinlichkeit eines der Worte 'habe', 'bin' oder 'war'.
Dann folgt, wieder mit größter Wahrscheinlichkeit auf Basis der 'gelernten' Dokumente, das nächste Wort. Und so weiter.

 

 

So hangelt sich ein LLM von Wort zu Wort, ähnlich dem Spiel 'ich packe meinen Koffer'. Dabei produziert es Sätze, die bis auf seltene Ausnahmen grammatikalisch korrekt sind und zudem plausibel klingen. Das bedeutet jedoch nicht, dass darin getroffene Aussagen den Tatsachen entsprechen. Das tun sie nämlich nur mit einer gewissen Wahrscheinlichkeit. Und die ist u.a. (aber nicht nur) abhängig von der Qualität der 'konsumierten' Dokumente in der Datenbank.

 

Daher sind die Hersteller von LLMs dazu übergegangen, die an ein LLM verfütterten Dokumente vorher von Menschen 'filtern' zu lassen. Diese verwenden ihre Intelligenz, um z.B. Texte mit offensichtlich falschen Informationen oder anderen Mängeln zu entfernen.

 

 

Aber auch ohne Fehlinformation in der Datenbank liefert ein LLM nicht selten Ergebnisse, die mehr oder weniger offensichtlich falsch sind. Mitunter werden selbst einfache Rechenaufgaben falsch beantwortet. Denn ein LLM kann nicht rechnen; es sucht nur in der Datenbank nach den Zahlen und welche anderen Zahlen am wahrscheinlichsten darauf folgen. Oder es werden Aussagen zu zwei völlig unterschiedlichen Themen miteinander verwoben, weil in beiden Ursprungstexten ähnliche Formulierungen verwendet wurden. Bei der Suche nach dem nächsten Wort hat die KI also die 'falsche Abzweigung' genommen. Experten nennen diesen Vorgang 'Halluzinieren'.

 

Würde man die Regeln für die Ermittlung des IQ  auf ein LLM anwenden, käme man auf das Ergebnis '(Ergebnis = mau) geteilt durch (Wissen = gigantisch) = IQ von nahezu null'.

 

Auch andere KI-Systeme, etwa zur Bilderstellung, arbeiten nach einem ähnlichen Prinzip. Allerdings werden hier Bilder und Bildunterschriften konsumiert, keine Texte. Die Erstellung eines neuen Bildes erfolgt hier nach Regeln wie 'wenn der Stil von X gefragt ist, dann ist die Hintergrundfarbe Y die häufigste' oder 'bei dem gefragten Stil 'Kubismus' haben zwei benachbarte Pixel entweder dieselbe oder eine gänzlich verschiedene Farbe, die Farbgrenzen verlaufen entlang von Geraden und rechten Winkeln' etc. Auch solche KIs halluzinieren. So bekommen Personen auf den generierten Bildern mitunter eine dritte Hand oder 7 Finger und ein drittes Auge – auch gerne an völlig unpassenden Körperstellen. Derartiges fällt allerdings auch dem ungeschulten Betrachter – anders als bei generierten Texten – sehr schnell auf.

 

 

Vergleichbares gilt auch für KIs zur Steuerung oder Regelung, z.B. im Bereich Heimautomation. Die Datenbank ist hier oft recht klein und besteht in der Hauptsache aus Regeln. Das Ergebnis ist kaum intelligent und oft nicht einmal smart. Es besitzt lediglich eine deutlich höhere Komplexität des Regelwerkes als frühere Systeme.

 

Neu ist 'KI' dieser Art auch nicht wirklich. Bereits 1966 hat Joseph Weizenbaum ein Programm namens 'Eliza' geschrieben, welches demonstrieren sollte, wie ein Computer Informationen verarbeitet. Dem Programm lag nur eine sehr minimalistische Datenbank zu Grunde, die nur wenige Verben und ihre typische Verwendung sowie einige vorgefertigte Phrasen enthielt. Es analysierte die Sätze eines Benutzers an Hand einfacher grammatikalischer Regeln und 'antwortete' mit Sätzen, die scheinbar auf den Benutzer eingingen und eine Konversation vorspiegelten. In einem Berliner Mailboxsystem (City Dialog System, 'CDS') wurde Eliza um 1982 herum als Chatbot implementiert und es gab Benutzer, die sich bis zu 20 Minuten mit dem Programm 'unterhalten' haben, ohne seine wahre Natur zu erkennen. Sie hielten den vermeintlichen Administrator lediglich für etwas begriffsstutzig. Die damalige Rechenleistung lag bei einem zigtausendstel eines heutigen Smartphones, der benötigte Speicher sogar bei einem Millionstel.

 

Intelligenz

 

 

Das Wort 'Intelligenz' kommt übrigens von dem lateinischen Wort „intellegere“. Es bedeutet „verstehen“ oder wörtlich „zwischen etwas wählen“. Nun wählen LLMs tatsächlich zwischen etwas, nämlich zwischen den verschiedenen Möglichkeiten, welches Wort sie als nächstes an den bereits gebildeten Text hängen. Wirklich verstanden haben sie dabei allerdings nichts. Das ändert nichts an den mitunter beeindruckenden Ergebnissen, die eine KI liefert. Aber selbst der Gesetzgeber hat die Mängel erkannt und geregelt, dass Ausgaben von KIs keine Schöpfung im Sinne des Urheberrechtes darstellen und daher nicht geschützt sind.

 

Abschließend lässt sich sagen, dass die Intelligenz heutiger KIs hauptsächlich in der Intelligenz ihrer Schöpfer besteht. In deren Schöpfungen steckt hingegen herzlich wenig davon.

 

Man sollte daher stets daran denken, KIs nur als Hilfsmittel zu betrachten, wie Google oder eine Rechtschreib- oder Grammatikprüfung. Oder einen hochentwickelten Zufallsgenerator. Gerade bei LLMs darf man sich aber nie ungeprüft auf das Ergebnis verlassen oder es gar unverändert für eine Diplom- oder Doktorarbeit verwenden. Bestenfalls hätte man dann nichts, worauf man stolz sein könnte. Bestenfalls.

 

 

Jens-Michael Groß

 

(J-M. G. für M&M, 11-2024)

 

Kommentare: 0