KI – Naht die Maschinenherrschaft?

Gesellschaft

Um KI zu verstehen, muss man zuerst die Ursprünge der sogenannten künstlichen Intelligenz kennen. Lange Zeit wurde an dieser geforscht und es konnten kaum Fortschritte erzielt werden. Begonnen hat alles mit Eliza. Dieses im Jahr 1966 entwickelte Programm täuschte vor, dass es mit jemandem ein Gespräch führen könnte. Das Programm verwendete Mustererkennung und Substitutionsmethoden und gab vorgefertigte Antworten, die den Benutzern das Gefühl gaben, mit jemandem zu sprechen, der ihre Eingaben verstand. In Wahrheit war es simpel. Eliza nahm einfach die Antwort und formte sie zu einer Frage um. So wurde aus jeder Antwort eine Gegenfrage mit dem Inhalt aus der Antwort. Man hat das Gefühl als wäre man bei einem Therapeuten. Erst wenn man Eliza nach Inhalten fragte wurde langsam klar, dass es ein simples Zusammenstoppeln von Teilsätzen war, nach einer ganz einfachen Logik.

Ein echter Fortschritt kam mit den Expertensystemen in den 80er Jahren. Der Hintergrund dieser Systeme war eine Wissensbasis mit einem Datenbaum in dem von oben nach unten durchgegangen wurde und – je nach Antwort – eine Abzweigung gewählt wurde. Einen Datenbaum muss man sich wie einen umgekehrten Baum, der von der Wurzel zur Krone führt, vorstellen. Jeder Ast enthält Zweige, die wiederum Zweige enthalten. Man startet also bei der Wurzel und dann kommt eine Frage. Je nach Beantwortung der Frage wird ein Seitenzweig ausgewählt, der wiederum zu einer Frage führt. Auch diese hat wieder Seitenzweige und das ganze führt dann letztendlich zu einem Zweig, der keine Zweige mehr enthält. Da ist die gesuchte Antwort. Vielleicht kennt jemand diese Spiele, bei denen man nacheinander Fragen beantwortet, um welches Tier es sich handelt. So findet das System heraus das z.B eine Giraffe gesucht wurde. Ist es ein Landtier?: Ja. Hat es ein Fell?: Nein. Hat es vier Beine?: Ja. Ist es braun?: Nein. Hat es einen langen Hals?: Ja. usw.

Bei jeder Frage wird geprüft, welche Tiere aufgrund dieser Antwort in Frage kommen. Dann wird ausselektiert. Mit der nächsten Frage wird die Menge wieder kleiner und so fort bis nur mehr ein Tier übrig bleibt. Genau so funktioniert ein Expertensystem, nur dass es wesentlich komplexer aufgebaut ist. Mit diesem System war es möglich, automatisch eine Antwort auf eine bestimmte Frage zu geben, für die man sonst einen Experten benötigt hätte. Damals eine Sensation. Allerdings hielt die Freude nicht lange über diese Systeme. Den letztlich waren sie dumm. Man musste zahllose Fragen beantworten bevor man eine brauchbare Antwort erhielt. Sie setzten sich also nicht durch. Es erfolgte ein Stillstand in der Forschung, da auf diesem Weg keine sinnvolle Anwendung möglich war . Künstliche Intelligenz war nur etwas für Film und Bücher.

Man schlug also einen anderen Weg ein, der darin bestand, dass man die Wahrscheinlichkeitsrechnung für die Beantwortung von Fragen und generell zum Lösen von Problemen einsetzte. Die Stunde der neuronalen Netze schlug. Das sind Programme die nicht Schritt für Schritt eine Aufgabe lösen, sondern in denen von einer Ebene zur nächsten Knoten mit Gewicht gefüllt werden. In jeder Schicht sind eine Anzahl dieser Knoten, die wiederum mit anderen verbunden sind. Dieses Gewebe aus Knoten wird nun trainiert, was bedeutet, dass immer auf der Eingangsseite eine Information bereitgestellt wird, für die auf der Ausgangsseite das zugehörige erwartete Ergebnis steht. Nun wird bei jedem Durchlauf geprüft, ob durch die Eingangsinformation, die das Netz durchläuft, und auf jeder Ebene aufgrund dieser Information die Gewichte der Knoten füllt, am Ende das richtige Ergebnis herauskommt. Ist die Antwort nein, erwartetes Ergebnis und tatsächliches Ergebnis stimmen nicht überein, dann wird eine neue Eingangsinformation bereit gestellt, die wiederum da geprüft wird. Dabei werden die Gewichte verändert, so dass sich die Impulse aus dem Eingang einen anderen Weg suchen und ein anderes Ergebnis liefern. Sobald dieses Ergebnis dem erwarteten Ergebnis ähnelt, werden diese Gewichte in den Knoten als relevant angesehen. Es kann z.B. anhand eines Bildes von einem Auto erkannt werden, dass dieses eines ist. Auf der Eingangsseite müssen nur genügend Bilder von Autos geliefert werden, damit auf der Ausgangsseite dieses Muster erkannt wird. Wie spielt nun die Wahrscheinlichkeitsrechnung in diese Technik hinein? Diese findet nun bei den großen Sprachmodellen, Large Language Models (LLMA), Anwendung.

Die bekannteste Anwendung dazu ist ChatGPT. Das Sprachmodell funktioniert so, das jeweils zur Folge von Wörtern das wahrscheinlichste nächste Wort gesucht wird und dann wiederum das nächste das am passendsten ist. So entsteht nach und nach ein Text der sinnvoll ist. Natürlich werden über das Modell auch Zusammenhänge festgelegt welche Wörter zu welchen Wörter in einem Bereich am besten passen. Dazu entsteht durchs Training von Beispieltexten als Eingabe ein Netz von Assoziationen dieser Verbindungen. Ein sehr großes Netz. Letztlich verwenden die Anwendungen heute, die auf diesen Sprachmodellen basieren, die Daten des Internets als Eingabedaten. Je öfter dann Benutzer mit den Ergebnissen zufrieden sind umso stabiler wird das Modell. Ansonsten wird wieder mit neuen Daten trainiert und auf das erwartete Ergebnis hingearbeitet. Mit diesen Modellen wird das menschliche Gehirn nachgeahmt – deswegen spricht man auch von künstlicher Intelligenz. Wie weit diese Nachahmung gehen wird, wissen wir noch nicht. Es ist durchaus möglich, dass am Schluss diese Entwicklung tatsächlich ein voll funktionstüchtiges digitales Gehirn stehen wird.

Ja das macht uns Angst. Aber die Frage ist, wie damit umgehen? Hat uns der Taschenrechner vom selbständigen Denken abgehalten? Nein, er hat nur unser Denken erweitert. Nicht anders ist es jetzt mit der KI. Es ist eine Erweiterung unseres Denkens um eine neue Dimension, aber es befreit uns nicht davon, selbst die Ergebnisse zu überprüfen bevor wir sie verwenden. Würde 23 x 10 auf dem Rechner 3000 ergeben würden wir sofort stutzig werden. Bei der KI nehmen wir die Ergebnisse aber einfach als wahr hin. Das ist der Kardinalfehler. Die Ausgaben der KI Anwendungen müssen genauso kritisch geprüft werden und erst dann dürfen sie verwendet werden. Wenn wir so handeln, dann ist die Gefahr, dass sich so eine KI selbstständig macht, gering. Wenn wir dazu noch der KI bestimmte Grundgesetze einpflanzen, die beim Durchlauf von Eingabe zu Ausgabe ausnahmslos beachtet werden, dann gibt es gar keine Gefahr mehr und wir können uns auf die KI verlassen. Dann ist sie ein Werkzeug, wie alle Werkzeuge die wir Menschen geschaffen haben – und kein digitaler Herrscher, der unsere Welt dominiert.

Credits

Image Title Autor License
1280-720-max (1) Wolfgang Müller CC BY SA 4.0

Diskussion (2 Kommentare)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  1. Niemals.
    Ein menschliches Gehirn – und auch kein tierisches – kann jemals nachgebaut werden auf Erden.
    Fürchtet euch nicht.

    1. ja ich halte es auch für eher unwahrscheinlich aber eben nicht für unmöglich. es hilft ein Gedankenexperiment weiter. was wenn man nur ein Neuron des Gehirns durch ein digitales Gegenstück austauscht und die Verbindungen zu allen anderen Neuronen herstellt. dann würde doch das Gehirn weiter funktionieren wie bisher?
      die Frage ist dann nur noch wie viele Neuronen kann man austauschen bis das Gehirn nicht mehr richtig arbeitet? soweit ich erkennen kann gibt es da keine Grenze.