Zum Stand der künstlicher Intelligenz

Bereits in den 1980-er Jahren hatte ich mich intensiv mit dem Thema „Künstliche Intelligenz“ (KI), deren Wesen, Einsatzmöglichkeiten, Stärken und Schwächen befasst. Damals und noch lange Zeit später war in der Öffentlichkeit kaum bekannt, dass sich ausgewählte Spezialisten in der Kybernetik und Informatik ernsthaft mit der Entwicklung von KI-Systemen beschäftigten. Alleine die Leistungsfähigkeit der z.V. stehenden Rechentechnik (Computer) und weitaus weniger der menschliche Geist setzte die Grenzen der Machbarkeit – in zahlreichen utopischen Romanen war sie schon die „Realität“ …

Eine aktuelle Veröffentlichung über eine neuartige „Sprach-KI GPT-3“ zeigt uns nochmals die Schwächen von KI-Systemen auf, die von der mittlerweile sehr interessierten oder sogar begeisterten Öffentlichkeit kaum wahrgenommen werden möchte – sie selber tragen in sich immer zwei Seiten, nämlich eine Gute und eine Schlechte. Damit ist nicht gemeint, dass KI-Systeme von ihren Betreibern sowohl für gute als auch schlechte Zwecke eingesetzt werden können, das wäre lediglich die Sichtweise des jeweiligen Betrachters, es ist damit tatsächlich gemeint, dass diese Ambivalenz den KI-Systemen systemimmanent ist.

Um das zu verstehen, muss man sich etwas mehr mit dem Begriff „Künstliche Intelligenz“ befassen: Dieser Begriff suggeriert, dass eine Maschine (Computer) über die rationale und emotionale Intelligenz eines Lebewesens, vorzugsweise des Menschen verfügt. Was man aber bei natürlichen Lebewesen unter „Intelligenz“ versteht, ist nicht das, was in KI-Systemen vor sich geht – sie ziehen unter Bezugnahme auf Fakten (Daten) und Regeln (Algorithmen) lediglich Schlussfolgerungen, mehr aber auch nicht. Und es ist dabei irrelevant, ob sie mit wenigen oder recht viel dieser Informationseinheiten versorgt werden – der Mechanismus ist immer der Gleiche. Hierzu ein ganz einfaches Beispiel:

Wenn ein Mann und eine Frau zusammen ein Kind in die Welt setzen, werden sie damit ganz automatisch zu Eltern. Mit anderen Worten hat jedes Kind damit auch Eltern, bestehend aus einem Mann und einer Frau. Die Fakten wären, dass es einen Mann (m), eine Frau (w) und ein Kind (m/w) gibt. Gibt es den Mann und die Frau ohne Kind, wären es keine Eltern, bestenfalls ein Paar. Aus dieser Feststellung ergeben sich nun die Regeln (1) „Wenn Mann und Frau gemeinsam ein Kind gezeugt haben, dann sind sie Eltern“, (2) „Wenn Mann und Frau (noch) kein Kind gezeugt haben, aber zusammen sind, sind sie (nur) ein Paar“ …

Biologische Eltern müssen nicht zwangsweise ein gemeinsames Paar sein, wenn sie alleinstehend (und alleinerziehend) sind oder mit anderen Partnern zusammenleben, mit denen sie keine gemeinsam gezeugte Kinder haben. Zu diesen Fällen bedarf es aber nicht unbedingt weiterer Regeln der o.a. Art, um nur schlussfolgern zu können, dass ein Mann und eine Frau als (gemeinsame) Eltern bezeichnet werden könnten …

Und nun kann’s etwas komplizierter werden, denn der Mann und die Frau und das Kind haben jeweils einen Namen, einen Geburtsort und ein Geburtsdatum, wohnen zu einer bestimmten Zeit eventuell an einem ganz anderen Ort. Und es gibt zahlreiche Menschen mit den gleichen Namen, die sich an den gleichen Orten aufhalten, zu gleicher Zeit und/oder in den gleichen Orten geboren wurden. Ein KI-System wird mit all diesen Fakten (Daten) und Regeln der o.a. Art gefüttert und zieht dann auf eine konkrete Frage in der Form „Who is who ?“ über seine Inferenzmaschine seine Schlussfolgerungen (Antworten) – was meinen Sie, kommt dabei heraus … ?

Tatsächlich gibt’s auf eine einzige Frage oftmals mehrere verschiedene Antworten, und in diesem Sinne können die Antworten (Schlussfolgerungen) mit der Realität zutreffend oder falsch, angenehm bzw. erhellend oder unangenehm bzw. sogar gefährlich sein. Doch was soll man von solchen System halten, die uns derart in die Irre führen können, wenn wir ihnen unser Vertrauen schenken … ?

Die sytemimmanenten Schwächen von KI-Systemen liegen also erst einmal in ihrer Ambivalenz. Zum Zweiten verfügen solche Systeme über keine emotionale Intelligenz. Damit sind einerseits das Fehlen von moralisch-ethischen Grundsätzen und Erfahrungen sowie andererseits das Fehlen natürlicher Anbindungen an die Gesellschaft, Umwelt oder sogar den Schöpfer (Gott) gemeint. Die Anerkennung der Existenz eines allgemeinen Schöpfers (Gott) stellt für Atheisten und Materialisten, die ihrerseits immer wieder die Natur zu beherrschen trachten, ohnehin eine gewaltige geistige Herausforderung dar, aber hier sei gerne noch einmal auf das „innere Bauchgefühl“ verwiesen, das uns bei rationalen Entscheidungen oftmals zweifeln lässt, dass alleine diese ohne erhebliche Tribute erfolgreich zum Ziel führen würden. Woher dieses Bauchgefühl, das KI-Systemen immer fehlen wird, eigentlich kommt, wäre tatsächlich schon eine ernsthafte Suche wert …

Im Fazit kann man immer wieder nur feststellen, dass KI-Systeme lediglich beratende oder unterstützende Hilfsmittel bleiben werden – die (alternativen) Entscheidungen unter Berücksichtigung ethisch-moralischer Aspekte und eventuell auch des Bauchgefühls liegen immer bei deren Betreibern selber …