Natürliche versus Künstliche Intelligenz

Seit neuestem wird die Welt von einem bisher unbekannten Fieber geschüttelt, sein Name: Künstliche Intelligenz, KI (oder Artificial Intelligence AI). Angesichts der klugen Antworten, die ein Programm wie ChatGPT innerhalb von Sekunden auf beliebige Fragen erteilt, ist die kollektive Aufregung verständlich. Mancher Auskunftsuchende glaubt, mit mehr als nur einer überaus intelligenten Maschine zu reden, er bildet sich ein, mit einem mitfühlenden Menschen zu kommunizieren. Yuval Noah Harari sieht sogar eine apokalyptische Zeit heraufdämmern, wo wir alle Marionetten der künstlichen Intelligenz sein werden.

Lassen wir den trügerischen Eindruck, dass uns KI Gefühle entgegenbringt, zunächst einmal beiseite. Was die Intelligenz betrifft, so ist unser Erstaunen über ihr beinahe grenzenloses Wissen durchaus gerechtfertigt. ChatGPT wie auch jedes andere Programm dieser Art vermag im Prinzip auf das Wissen der ganzen Menschheit zuzugreifen, wie es in schriftlicher Form (aber auch in Bild oder Ton) gespeichert wurde. Es leuchtet ein, dass kein einzelnes Gehirn mehr als nur einen vergleichsweise infinitesimal kleinen Ausschnitt dieses kollektiven Schatzes abrufen kann. Insofern ist künstliche Intelligenz eine Errungenschaft, welche der natürlichen theoretisch gleich auf zweifache Weise beinahe unendlich überlegen und für sie unerreichbar ist. Erstens dadurch, dass sie sich das Wissen aller lebenden Menschen anzueignen vermag (sofern dieses gespeichert wurde), zweitens dadurch, dass sich dieses Wissen um den Faktor Zeit nahezu beliebig vermehren lässt, nämlich um das Wissen früherer Generationen (sofern es in irgendeiner Form aufbewahrt worden ist).

Damit ist nicht weniger als ein Quantensprung gegenüber der natürlichen Intelligenz vollzogen. Wenn ich ChatGPT eine elementare Frage stelle wie „Warum erfreuen sich Menschen an Blumen?“, dann wertet das Programm alle gespeicherten Quellen im Hinblick darauf aus, wo Blumen im Zusammenhang mit Freude genannt werden und bedient sich dabei noch eines breiten Fächers der Mustererkennung – ganz wie das menschliche Gehirn. Es muss zwischen Frage und Antwort unterscheiden, zwischen relevanten und weniger relevanten Antworten, die es zudem noch nach verschiedenen Aspekten unterteilt: ästhetisch, symbolisch, kulturell (Blumen als Geschenk), Naturverbundenheit, positive Wirkung auf den Menschen etc. Würde ChatGPT ausschließlich auf Texte anderer als europäischer Kulturen oder gar auf die Überlieferungen früher Stammeskulturen zugreifen, dann ergäben sich andere Antworten und andere Kategorisierungen. Würde man das System vor allem mit den Äußerungen von Geisteskranken und Verschwörern füttern, erhielte man abermals ein völlig anderes Bild. Bei Fragen nach der politischen Relevanz von Blumen und Schönheit würden wir gewiss andere Antworten erhalten, je nachdem ob die künstliche Intelligenz in Russland, China oder Nordkorea oder aber in Deutschland, Südkorea oder den USA programmiert worden ist. Auch die Antworten aus der Mitte des 19. Jahrhunderts oder aus der Zeit Luthers würden eine andere Gewichtung verraten. Die künstliche Intelligenz ist daher genauso wenig „objektiv“ wie die natürliche, da sie von Menschen einer bestimmten Zeit programmiert wird. Die Gewichtung der Antworten verrät uns, wie sehr diese durch den Zeitgeist und die kulturelle Orientierung geprägt sind.

Eine Ausnahme bilden nur die Auskünfte über beliebig wiederholbare Ereignisse, wie sie in erster Linie Gegenstand der Naturwissenschaften sind. Hier besteht Objektivität darin, dass wir auf die gleichen – im Experiment gestellten – Fragen die gleichen Antworten erhalten. Darauf ist noch zurückzukommen.

Die künstliche Intelligenz verhält sich keineswegs nur passiv. Anders gesagt, imitiert sie nicht nur, sondern ist ihrerseits produktiv. Zum Beispiel ist sie imstande, neue Verse im Stil von Goethe oder Heine zu produzieren, in denen – sagen wir – Thymian- oder Fantasieblüten vorkommen sollen. Je nach Entwicklungsgrad der künstlichen Intelligenz sind diese Versuche eher plump oder bereits so gelungen, dass selbst Kenner die neuen Verse nicht von den originalen zu unterscheiden vermögen. Das Programm verfährt dabei prinzipiell auf die gleiche Weise wie ein geschulter lebender Nachdichter. Aufgrund seines umfassenden Wissens der gespeicherten Originaltexte weiß dieser genau, welche Wendungen und Worte infrage kommen und welche nicht. Jede gelungene Fälschung setzt dieses Wissen voraus. Wenn künstliche Intelligenz die Schriften, die Worte, die Bilder oder auch Kompositionen eines lebenden oder toten Individuums nachahmt, wird sie zum perfekten Fälschungsprogramm. Perfekt bedeutet, dass der in Schrift, Wort, Bild oder Komposition Nachgeahmte das betreffende Thema genau so produziert haben könnte. Hier handelt es sich nicht mehr um bloße Imitation, denn der jeweilige Stil wird auf neue Elemente (z.B. Thymianblüten oder neue Themen bezogen). Aus diesesr Fähigkeit des Programms, produktiv zu fälschen, ergeben sich Gefahren, die bei den derzeitigen Diskussionen um künstliche Intelligenz im Brennpunkt stehen.

Wenn künstliche Intelligenz der natürlichen so nahekommt, wenn sie also nicht nur zur Nachahmung sondern zu eigener Produktion fähig ist, läuft diese Feststellung dann nicht darauf hinaus, dass die natürliche menschliche Intelligenz durch die künstliche ganz ersetzt werden kann? Der erste Eindruck im Umgang mit ChatGPT scheint diesen Schluss nahezulegen, zumal viele ihrer Erfinder und Propagandisten diese Folgerung ausdrücklich bestätigen.

Und doch wäre sie völlig falsch. Zwar ist es unbestreitbar, dass die künstliche der natürlichen Intelligenz weit überlegen ist, weil der Einzelne niemals so viel Wissen zu speichern vermag wie ein Kollektiv. Das Gegenteil trifft aber genauso zu: die künstliche Intelligenz ist der natürlichen qualitativ hoffnungslos unterlegen – und dieser Unterschied ist genauso unaufhebbar.

Nehmen wir an, dass ChatGPT bald so weit vervollkommnet wird, dass das Programm nicht nur – wie schon jetzt der Fall – zu jedem beliebigen Thema recht plumpe Verse im Stil Goethes oder Schillers zu produzieren vermag, sondern dass diese Verse von den historisch gesicherten schon in naher Zukunft nicht mehr unterscheidbar sein werden. Ist der auf diese Weise erschaffene „Pseudo-Goethe“ dann nicht schlicht und einfach ein zweiter Goethe, der ganz an die Stelle des ersten treten könnte? Und würde das nicht ebenso für einen Pseudo-Mozart und einen Pseudo-Picasso gelten, wenn künstliche Systeme deren Produkte perfekt nachahmen und ersetzen?

An diese Frage schließt sich unmittelbar eine andere und viel weitergehende an. Können diese künstlichen Produzenten nicht schließlich ganz an die Stelle des Menschen treten und seine natürliche Intelligenz ersetzen? Ich sagte gerade, dass unter den Enthusiasten der künstlichen Intelligenz viele genau das behaupten.

Auf diese Frage gibt es eine eindeutige Antwort, und sie ist negativ. Zwar trifft es zu, dass die perfekte künstliche Intelligenz einen Pseudo-Goethe erschaffen könnte, dessen Verse von denen des Meisters nicht zu unterscheiden sind, weil jedes vorhandene Zeichengebilde (sei es Wort, Ton, Bild etc.) sich exakt nachbilden und durch Umordnung der Elemente im selben Stil neu produzieren lässt. Die einzige Unterscheidungsmöglichkeit liegt dann in dem historischen Nachweis, dass Goethe diese Verse zu seinen Lebzeiten nie geschrieben hat. Wenn Videos von Politikern veröffentlicht werden, die von der künstlichen Intelligenz fabriziert worden sind, dann kann der Gegenbeweis gleichfalls nur durch den historischen Nachweis erfolgen, dass die betreffenden Politiker diese Worte tatsächlich niemals gesprochen haben. Dieser Beweis ist aber bei Ereignissen, die aus den Äußerungen und Handlungen von Individuen bestehen – also bei neunundneunzig Prozent aller einmaligen Ereignisse – sehr schwierig und oft unmöglich, weil es dafür entweder gar keine oder immer nur eine begrenzte Zahl von Augenzeugen gibt.

Auf der symbolischen Ebene ist eine perfekte Fälschung grundsätzlich nicht zu entkräften, sie ist es nur durch die Konfrontation mit etwas ganz anderem: mit der Wirklichkeit. Aber die Wirklichkeit außerhalb des eigenen Lebens- und Arbeitsraumes steht jenseits unseres Erfahrungsraums. Wir sind daher auf die Re-Präsentation der Wirklichkeit durch Fotos, Videos etc., d.h. auf die symbolische Ebene, angewiesen, auf der z.B. gezeigt wird, dass ein bestimmter Politiker zu der genannten Zeit und dem genannten Ort diese oder jene Worte gesprochen hat. Da wir das wirkliche Ereignis nicht kennen und es – da es einmalig ist – niemals kennen werden, haben wir keine Handhabe, um eine perfekte Fälschung von einer wahren Re-Präsentation des Ereignisses zu unterscheiden. Die künstliche Intelligenz wird damit zu einem Instrument der Produktion von Fakes, d.h. von Abbildern einer Wirklichkeit, die so niemals existierte aber existieren könnte.

Das ist nicht neu, die natürliche Intelligenz konnte das immer schon. Die künstliche ahmt nur eine Fähigkeit nach, die schon seit Jahrtausenden existiert, nämlich solange Künstler fiktive Wirklichkeiten erdachten. Aber in diesem Fall wussten wir immer, dass es sich um Fiktionen handelt. Das ist nicht länger der Fall bei den Fakes der KI. Da wir nicht in der Lage sind, durch direkte Erfahrung einen Bezug zur Wirklichkeit herzustellen, ist eine Entscheidung zwischen wahr und falsch unmöglich. Insofern konfrontiert uns die künstliche Intelligenz mit einer historisch einmaligen Entwicklung.

Damit ist das zerstörerische Potenzial der künstlichen Intelligenz benannt. Es bleibt nur in jenen Bereichen unwirksam, wo wir es mit beliebig wiederholbaren Ereignissen zu tun haben. Wenn eine Hausfrau aus Kenia behauptet, Wasser bei 10 Grad Celsius zum Kochen gebracht zu haben oder ein Schamane darauf besteht, dass die Einnahme von Knoblauch ihm die Levitation ermögliche, so lassen sich diese und ähnliche Behauptungen durch das Experiment widerlegen. Jedes einmalige Ereignis lässt sich fälschen, weil wir die Fälschung nicht durch Gegenüberstellung mit der Wirklichkeit  zu entlarven vermögen. Wiederholbare Ereignis lassen solche Fälschung nicht zu. Im Bereich der Wissenschaften wird die künstliche Intelligenz daher ihre größten Erfolge feiern.

Es lässt sich also jetzt bereits absehen, dass die künstliche Intelligenz das Potenzial besitzt, den Wissenschaften einen gewaltigen Aufschub zu bescheren, während sie zur gleichen Zeit den moralischen Kosmos zerstört, weil wahr und falsch dort eine beherrschende Rolle spielen. Schaden und Nutzen gleichen einander allerdings nicht aus. Die richtige Lebensführung, also der moralische Kosmos, ist für den Einzelnen wie für ganze Nationen weitaus wichtiger als die richtige Erkenntnis, die letztlich immer im Dienste der ersteren steht. 

Noch einmal gefragt: Kann die künstliche Intelligenz die natürliche ersetzen? Diese Frage wurde bereits verneint, aber wir können sie jetzt begründen. Der künstlichen Intelligenz fehlt der Sockel der Wirklichkeit, durch welche die natürliche Intelligenz überhaupt erst zustandekommt.Dieser Unterschied ist von grundlegender Art.

Wie entsteht natürliche Intelligenz? Wenn ein Kind in den sprachlichen Kosmos einer bestimmten Zeit und Kultur hineinwächst, dann wird sein Gehirn nicht einfach mit den bestehenden Daten der betreffenden Sprache und Kultur gefüttert, so wie das auf die künstliche Intelligenz zutrifft, sobald ein Programmierer das vorhandene Wissen in elektronischen Chips einspeichert. Das Kind und ebenso der erwachsene Mensch gehen völlig anders vor. Die Sinnesorgane liefern ihnen visuelle, akustische, emotionale Bilder der Wirklichkeit und diesen ordnen sie die in der jeweiligen Kultur vorhandenen Zeichensprachen zu. Anders gesagt, hüllt die natürliche Intelligenz das von den Sinnesorganen gelieferte Material in das jeweils vorhandene kulturelle Gewand, weitet dieses in der Reaktion auf neue Wirklichkeiten jedoch beständig aus, zerreißt es auch manchmal, wenn es mit der Wirklichkeit nicht mehr übereinzustimmen scheint. Die Dialektik zwischen individueller Wahrnehmung der Wirklichkeit und deren kollektiver Re-Präsentation ist ein ständiger, nie endender Prozess – das herausragende Merkmal der natürlichen Intelligenz.

Dieser Prozess fehlt der künstlichen Intelligenz, weil sie über keine Organe zum Erkennen der Wirklichkeit verfügt. Sie hat keine Augen, keine Ohren, kein Tastorgan, keine emotionale Erfahrung.Anders gesagt, fehlt ihr die für die natürliche Intelligenz konstituierende Dimension: der Input durch die Wirklichkeit. Alles menschliche Wissen ruht letztlich auf diesem Sockel. Wenn uns ChatGPT überraschend kluge Auskünfte darüber ereilt, warum Blumen dem Menschen so viel bedeuten oder warum es moralisch verwerflich sei, andere Menschen zu verletzen – und das in Worten, die wir selbst vielleicht nicht besser formulieren könnten – dann sind wir intuitiv verleitet,  der Maschine dieselbe Fähigkeit der Wirklichkeitserkenntnis zuzuschreiben wie uns selbst. Und genau hier irren wir. Menschen wirken auf uns authentisch, wenn wir den Eindruck gewinnen, dass sie aus persönlicher Erfahrung sprechen, weil sie im Umgang mit der Wirklichkeit diese so erleben, wie sie das uns auf der symbolischen Ebene mit Worten (oder anderen Zeichen) mitteilen. Empfänglich sind wir aber auch für die Vollkommenheit der symbolischen Ebene selbst. Wenn ein Mensch angesichts einer überwältigend schönen Landschaft nur ein Ah! über die Lippen bringt, dann können wir das zwar für sehr authentisch halten, wir gestehen ihm zu, dass er die Wirklichkeit so intensiv erlebt wie wir, aber es berührt uns sehr viel mehr, wenn ein großer Dichter oder Maler der Schönheit auf vollkommene Weise in Wort, Bild oder Ton zum Ausdruck verhilft. Das vollkommene Wort oder Bild erscheint uns in diesem Fall so authentisch, dass wir das entsprechende Erleben (da die Zeichen es in uns so stark beschwören) beim anderen Menschen als gegeben voraussetzen.

Diese Illusion macht sich die künstliche Intelligenz zunutze, wenn sie uns aus der nahezu unendlichen Fülle symbolischer Beschwörungen die eindrucks­vollsten präsentiert. In Wahrheit fühlt, denkt, sieht, hört die Maschine absolut nichts, während ihre Algorithmen unendliche binäre Sequenzen von 000en und 11111en ausspucken, die es jeweils in die Worte und Sätze einer historischen Sprache überträgt. ChatGPT hat sein nahezu unendliches Wissen nicht wie das Kind und jeder lebende Mensch durch den Umgang mit der Wirklichkeit erworben, auf der für den Menschen alle symbolische Repräsentation beruht. Für die künstliche Intelligenz ist der einzige Bezugspunkt diese Re-Präsentation selbst. Anders gesagt, wertet sie gespeicherte binäre Sequenzen von 0en und 1ern aus, um auf entsprechende Fragen (binäre Sequenzen) die durch das Programm vorgesehenen Antworten zu erteilen.

Damit ist die ganz zu Anfang angeschnittene Frage der „Einfühlung“ beantwortet. Die Maschine fühlt absolut nichts, weil ihr der emotionale Sockel der Wirklichkeitserfahrung fehlt. Daraus ergibt sich ein zweites Manko. Unter Auswertung der vorhandenen Quellen kann sie zwar einen Pseudo-Goethe, Pseudo-Schiller, Pseudo-Picasso erschaffen, aber keinen großen Dichter, Maler oder Komponisten der Zukunft, der aufgrund einer neuen Wirklichkeitssicht neue Symbolsprachen erschafft. Die künstliche Intelligenz kann nur Vorhandenes imititeren und neu kombinieren, aber es ist ihr prinzipiell verwehrt, im Ringen mit der Wirklichkeit neue symbolische Welten zu erschaffen, wie dies der Mensch im Laufe seiner geschichtlichen Existenz in einem fort tat und in Zukunft weiterhin tun wird. Diese Limitation der künstlichen Intelligenz ist ein Faktum.*1*

Manche KI-Enthusiasten werden gegen diese Feststellung protestieren. Tatsächlich gibt es in der Robotik zahlreiche Beispiele für die Verwertung von Signalen aus der Wirklichkeit. Nehmen wir ein ganz einfaches Beispiel. Ein eingebauter Temperatursensor sorgt dafür, dass ein „künstlicher Kellner“, der die Aufträge von Gästen entgegennimmt und die Speisen anschließend zu ihnen verteilt, nicht nur optische Reize auswertet, um die richtigen Tische zu bedienen sondern auch noch temperaturempfindlich ist, weil er einem Ofen ausweichen soll. Im Prinzip könnte man der Maschine noch ein Sprachprogramm einbauen, damit der Maschinenkellner Fragen der Gäste vernünftig beantwortet. Seine optischen Sensoren könnten ihm überdies auch Alter und Geschlecht der Gäste richtig abschätzen und seine Antworten danach bis zur scheinbaren „Einfühlung“ in die Sprache der Kinder modifizieren lassen. Diese und viele andere Sensoren zur Wirklichkeitsabbildung sind denkbar und werden heute bereits verwendet. Dennoch fühlt, denkt, spürt keine dieser Maschinen etwas von der Wirklichkeit, über die sie in Symbolen oft so „berührend“ zu uns spricht. Die Maschine ist tot, obwohl manche unter uns ihr intuitiv Leben zuschreiben. (Besonders tun dies Senioren in Altenheimen, wo Personalmangel dazu führt, dass sprechende Puppen für sie zum Ersatz für lebendige Menschen werden).

Daraus ergibt sich die alte Frankensteinfrage: Wird eine Maschine irgendwann lebendig, wenn man die Wirklichkeitssensoren und Signale stetig vermehrt, um sich sozusagen asymptotisch dem Sockel aus optischen, akustischen, olfaktischen, haptischen und emotionalen Signalen anzunähern, die jeder normale lebende Mensch von vornherein sein eigen nennt? Die Komponenten dafür sind jedenfalls schon vorhanden; es spricht nichts dagegen, dass wir sie mit der Zeit beliebig vervollkommen könnten. Wird es auf diese Weise möglich sein, den Menschen sozusagen immer vollkommender nachzubauen, sodass irgendwann auf diesem Wege der Umschlag von einer toten Maschine in ein lebendes Wesen erfolgt? Wird eine solche Maschine dann plötzlich ein Bewusstsein entwickeln?

So wie wir die natürliche Intelligenz oben definiert haben, nämlich als die Fähigkeit, über dem Sockel der Wirklichkeitserfahrung deren symbolische Repräsentation zu errichten, wäre diese Möglichkeit nicht auszuschließen – dann nämlich, wenn es gelänge, die maschinelle Sensorik der natürlichen eines Menschen mehr und mehr anzugleichen. Aber diese Überlegung lässt uns sofort erkennen, dass unsere Definition der natürlichen Intelligenz noch völlig unzureichend ist. Es gibt lebende Wesen – das gesamte Pflanzenreich gehört dazu – die kein Bewusstsein in der Art des Menschen aufweisen, weil dieses keinen biologischen Sinn ergäbe. Ein Baum kann sich den eigenen Standort nicht aussuchen, er braucht daher keine Sensorik, um optimale Standorte zu ermitteln. Die eigenständige Reaktion auf Umweltsignale ist bei Pflanzen auf elementare Vorgänge reduziert, z.B. die Ausrichtung zum Licht. Bewusstsein ergibt einen biologischen Sinn nur für aktiv in ihre Umwelt eingreifende Lebewesen, deren Handlungen sich positiv oder negativ für sie auswirken. Doch selbst in diesem Fall sind unbewusste triebhafte Reaktionen möglich, wenn sie sich auf Ja-Nein-Alternativen reduzieren lassen wie etwa bei Annäherung an eine Feuerquelle. Erst wenn die Umwelt ein Lebewesen mit komplexen Reizen konfrontiert, entsteht Bewusstsein als die Fähigkeit, Entscheidungen zwischen komplexen Möglichkeiten zu treffen. Die Stimuli von Belohnung für richtiges und Bestrafung für falsches Verhalten (Freude und Schmerz) spielen also eine zentrale Rolle. Ohne sie würde es kein Bewusstsein geben, weil es biologisch überflüssig wäre.

Bewusstsein ist zudem nicht identisch mit Wissen. Selbst den primitivsten Organismen muss ein evolutionär erworbenes Wissen einprogrammiert sein, damit sie ihrer jeweiligen Umwelt angepasst sind. Bewusstsein ist daher sehr viel mehr als bloßes Wissen. In ihrer heutigen Form verfügt die künstliche Intelligenz über ein nahezu unbegrenztes Wissen und ist doch nicht mehr als eine tote Maschine. Um über Bewusstsein zu verfügen müsste die Maschine Schmerz und Freude wie natürliche Wesen empfinden und sie nicht nur – wie jetzt der Fall – auf der symbolischen Ebene bloß imitieren können. Das aber ergibt nur dann einen biologischen Sinn, wenn die Maschine dem Schmerz aufgrund eigener Entscheidungen ausweichen und die Freude ebenso suchen kann.

Fazit: Die KI-Maschinen erstaunen uns damit, dass sie mit Engels- und Teufelszungen reden, und doch sind sie emotional tot und ohne eigene Wirklichkeiterfahrung – dabei wird es mit größter Wahrscheinlichkeit bleiben.*2* Apokalyptische Voraussagen wie die von Harari, wonach die künstliche Intelligenz den Menschen schon bald beherrschen und unterjochen werde, darf man getrost als Sensationshascherei abtun. Ihre nachweisbaren Wirkungen sind auch so schon weitreichend genug. Einerseits ist künstliche Intelligenz im moralischen Kosmos das Gegenstück zur Atombombe im physischen: Sie hat das Potenzial, den moralischen Kosmos nachhaltig zu sprengen und zu zersetzen – mit allen vorhersehbaren Auswirkungen für Politik und Gesellschaft. Andererseits wird sie der Wissenschaft und der Industrie zweifellos einen großen Auftrieb geben.

*1* Die Sprachwissenschaft leidet besonders unter dieser Einschränkung. Sie stellt mittlerweile zwar – nahezu – perfekte Übersetzungsprogramme her, aber alle Übertragungen von einer Sprache in eine andere ergeben sich als reine Trans-Formationen: die sprachliche Form einer Sprache A wird unter Anwendung entsprechender Algorithmen in die sprachliche Form einer Sprache B übertragen. Dass die natürliche Intelligenz auf völlig andere Weise verfährt (wie oben am Beispiel kindlichen Lernens illustriert), wird bei diesem Verfahren ausgeklammert. Die natürliche Intelligenz übersetzt den Wirklichkeitsinput zunächst in Begriffe (aus dem Kontinuum elektromagnetischer Lichtwellen macht sie beispielsweise einzelne Farben wie rot, gelb usw. – ich spreche von Bedeutung). Das immaterielle Substrat der Bedeutung wird dann in Form (also in Lauten, Gesten oder anderen Zeichen) materialisiert (ich spreche von der „Realisierung der Bedeutung durch die Form“).

Die Idee, das Vorgehen der natürlichen Intelligenz in der Sprachwissenschaft nachzubilden, also den Sockel der Wirklichkeit einzubeziehen, ist an sich nicht neu. Der große dänische Linguist Otto Jespersen sprach bereits von einer „notional grammar“. Steven Pinker stellt ausdrücklich fest, dass allen Sprache eine prelinguistische Bedeutung zugrunde liege, er nennt sie Mentalese und definiert diese als „The hypothetical ‘language of thought’, or representation of concepts and propositions in the brain in which ideas, including the meanings of words and sentences, are couched.“

Das Programm, Sprachen – alle Sprachen – als unterschiedliche formale Realisierungen einer – im Kern generellen – Bedeutungsstruktur aufzufassen und dementsprechend zu analysieren, wurde allerdings bisher nur als Idee entworfen. Ich habe versucht, diese Idee systematisch auszuführen. Siehe The Principles of Language – Towards trans-Chomskyan Linguistics.

Dieses Verfahren bietet keine praktischen Vorteile – die bestehenden Übersetzungsmaschinen sind, wie gesagt, sehr weit fortgeschritten. Es bietet aber die einzige Möglichkeit, um zu verstehen, warum und wie die Vielfalt bestehender und möglicher Sprachen zustandekommt und welchen Gesetzmäßigkeiten sie unterliegt. Das Interesse der von mir begründeten linguistischen Sprachwissenschaft ist theoretischer Natur.

*2* Ich sehe keine Möglichkeit, die Entwicklung der künstlichen Intelligenz zu einem lebenden Wesen grundsätzlich auszuschließen – schon jetzt kann die Biogenetik die Bausteine der Evolution zu eigenen Zwecken manipulieren, um künstliche Wesen herzustellen. Würde es uns allerdings gelingen, diese Eingriffe so zu vervollkommnen, dass wir dabei künstliche Wesen erschaffen, die nicht nur über ein nahezu unendliches Wissen verfügen sondern auch noch Erfahrung auswerten und ein Bewusstsein entwickeln, dann wäre es unausbleiblich, dass sie sich als von uns verschieden (und noch dazu weit überlegen) empfinden. Wir hätten Grund, uns vor solchen Wesen noch mehr als vor Unseresgleichen zu fürchten – und wir sind für einander schon gefährlich genug. Durch ihre Fähigkeit zur beliebigen Fälschung aller einmaligen Ereignisse, ist die künstliche Intelligenz jetzt schon eine akute Gefahr. Der Mensch könnte nichts Dümmeres tun, als sich selbst eine Konkurrenz zu verschaffen, die diese Gefahr ins Unermessliche steigert – so wie Mary Shelley und viele Horrorfilme sie ohnehin schon seit langem beschwören.