Unzulänglichkeit von KI aus philosophischer Sicht

Der vergangenes Jahr verstorbene Philosoph Hubert L. Dreyfus war zeitlebens davon überzeugt, dass es unmöglich ist, eine künstliche Intelligenz (KI) zu entwickeln, die der menschlichen Intelligenz ebenbürtig ist. Der US-Amerikaner war der Ansicht, dass sich die Entwickler von KI – trotz der großen Fortschritte – zu lange auf eine falsche Prämisse gestützt haben. Seine damit einhergehende Prophezeiung, dass die KI-Forschung unwissentlich einen Weg in die Sackgasse gehe, hat sich nicht bewahrheitet. Die Kritik an der Vorannahme war jedoch berechtigt: Dreyfus erkannte früh, dass die formale und mustersuchende Herangehensweise der Forscher nichts mit der Entwicklung einer menschenähnlichen Intelligenz zu tun haben kann.

Dem Philosophen zufolge waren die Forscher fälschlicherweise davon ausgegangen, dass sich die Funktionsweise des menschlichen Gehirns auf Zahlen und logische Zusammenhänge reduzieren lässt. In seinem Buch Die Grenzen künstlicher Intelligenz. Was Computer nicht können aus dem Jahr 1972, heißt es passend dazu: „Künstliche Intelligenz kann jedoch erst dann verwirklicht werden, wenn die Forscher ihre Idee aufgeben, nach einer zeichenhaften Darstellung der Welt zu suchen, und sich stattdessen an einem neutralnetzartigen Modell des menschlichen Gehirns orientieren.“

Des Weiteren war er davon überzeugt, dass es niemals möglich sein wird, einen Computer zu entwickeln, der besser als ein Mensch Schach spielen kann – eine These, die aus heutiger Sicht ziemlich grotesk wirkt. Bei allen falschen Prophezeiungen, mit denen er sich besonders in der Informatik keinen guten Ruf gemacht hat, scheint sich dennoch eine zu bewahrheiten: Die Entwicklung einer KI, die der menschlichen Intelligenz ebenbürtig ist, also zum Beispiel über ein Bewusstsein verfügt, ist auch dem heutigen Stand der Forschung nach sehr unwahrscheinlich.

Dreyfus versuchte auf wissenschaftlich anspruchsvolle Weise zu beweisen, dass dies nicht nur unwahrscheinlich, sondern schlichtweg unmöglich sei. Ihm war daran gelegen, die Unterschiede zwischen Gehirn und Hardware beziehungsweise Verstand und Software aus psychologischer und philosophischer Perspektive als unumgänglich, also als nicht überbrückbar darzustellen. Somit spielte es für ihn auch keine Rolle, dass in der KI-Forschung schon seit den 1960er Jahren mit der Simulation von neuronalen Netzwerken experimentiert wird. Dass sich jemals eine KI entwickeln lässt, die sich mit der menschlichen Intelligenz vergleichen lässt, hielt er notwendigerweise für ausgeschlossen.

Die Entwicklung einer menschenähnlichen KI war für Dreyfus also eine reine Utopie; daran hätte auch eine neue Herangehensweise der Forscher nichts ändern können. Das Problem war für ihn und andere Philosophen viel grundlegender. Es galt, der Frage nachzugehen, ab wann eine KI wirklich im Sinne der menschlichen Intelligenz als intelligent bezeichnet werden kann. Der entscheidende Punkt für den US-Amerikaner John Searle ist bei dieser Debatte die Unterscheidung zwischen ‚starker Intelligenz‘ und ‚schwacher künstlicher Intelligenz‘. Für ihn steht fest, dass auch die neuesten Softwareprogramme, die der Funktionsweise des menschlichen Gehirns nacheifern, lediglich ‚schwach intelligent‘ sind – egal zu welchen herausragenden Leistungen sie fähig seien. Dahinter verbirgt sich die Annahme, dass schwache KI Intelligenz lediglich simuliert und damit nicht dem menschlichen Vorbild gemäß intelligent sei. Um zu verdeutlichen, warum der Unterschied zwischen Mensch und Maschine beziehungsweise starker und schwacher (künstlicher) Intelligenz so eklatant ist, konzipierte Searle ein Gedankenexperiment; das sogenannte Chinese Room Experiment.

Für das Experiment soll sich ein geschlossener Raum vorgestellt werden, in dem sich eine Person befindet, die zwar nicht Chinesisch spricht, aber mit chinesischen Schriftzeichen hantieren soll, die durch eine kleine Öffnung in den Raum gelangen. Mit Hilfe eines in ihrer Muttersprache verfassten Regelbuches, kann die Person auf Chinesisch gestellte Fragen antworten – ebenfalls auf Chinesisch. Die Antworten gelangen durch die Öffnung wieder aus dem Raum. Dementsprechend sieht es von außen so aus, als würde der Mensch im Raum Chinesisch sprechen beziehungsweise verstehen können, obwohl das nicht der Fall ist.

Das Zimmer mit dem Regelbuch kann mit einer KI verglichen werden, die nach spezifischen Mustern handelt, weil sie auf eine bestimmte Weise programmiert wurde. Das Experiment zeigt, dass das bloße Operieren mit Daten beziehungsweise chinesischen Texten kein gleichzeitiges sowie wahrhaftiges Verstehen dieser Sachen voraussetzt – genau das ist jedoch ein Kriterium für starke KI. Sowohl die Person im Raum als auch die programmierte KI erfassen die Bedeutung des Inputs von außen nicht. Die Vorstellung, dass Computer einmal die Bedeutung von Wörtern wirklich so wahrnehmen wie wir Menschen, ist abwegig. Deshalb wird es auch aller Voraussicht nach nicht möglich sein, eine starke künstliche Intelligenz zu entwickeln.

Mit dem Experiment wird deutlich, dass sich auch hinter einer genial entwickelten KI stets eine Maschine verbirgt, die uns nur vorgaukelt, intelligent zu sein und etwas mit uns Menschen gemeinsam zu haben. Sie kann vielleicht Aufgaben lösen, die kein Mensch auf dieser Erde je lösen könnte – aber der entscheidende Punkt dabei ist, dass diese KI leider, oder vielleicht auch zum Glück, nicht versteht, was sie da eigentlich macht – genau wie die Person aus dem Chinese Room Experiment.

Auch Hubert L. Dreyfus wollte auf etwas Ähnliches hinaus, als er seine Kritik an der Prämisse äußerte. Doch anstatt den einfachen Weg über ein einprägsames Gedankenexperiment zu gehen, wählte er einen methodisch komplizierteren, jedoch wahrscheinlich wissenschaftlich akkurateren Zugriff auf das Problem. Letztendlich war beiden Philosophen daran gelegen, zu zeigen, dass die Entwicklung von starker künstlicher Intelligenz unmöglich ist. Oder anders formuliert: Beide wollten verdeutlichen, dass KI immer nur Replikate sein können, deren vermeintliche Intelligenz nichts mit der menschlichen gemeinsam hat und niemals haben wird. Künstliche Intelligenzen werden zwar voraussichtlich immer leistungsfähiger, dass sie dadurch aber menschlicher werden, ist ein Trugschluss.

Autor*in

Lennard studiert seit dem Sommesemester 2018 Deutsch und Philosohie im Master. Er hat sich bewusst gegen ein Studium auf Lehramt entschieden. Seit Ende letztens Jahres ist er Mitglied der ALBRECHT-Redaktion. Zuvor absolvierte er ein Praktikum bei einer Lokalzeitung und arbeitete als Online-Redakteur.

Share.
Leave A Reply