Eine Zukunft, in der sich die Denkfähigkeiten von Computern unseren eigenen annähern, rückt schnell in den Blickpunkt. Wir spüren, wie uns immer leistungsfähigere Algorithmen des maschinellen Lernens (ML) den Hals runteratmen. Der rasante Fortschritt in den kommenden Jahrzehnten wird Maschinen mit menschlicher Intelligenz hervorbringen, die in der Lage sind, zu sprechen und zu denken, mit einer Vielzahl von Beiträgen zu Wirtschaft, Politik und, unvermeidlich, Technologie. Die Geburt einer echten künstlichen Intelligenz wird die Zukunft der Menschheit tiefgreifend beeinflussen, einschließlich der Frage, ob sie eine hat.
Die folgenden Zitate liefern ein typisches Beispiel:
„Seit dem letzten großen Durchbruch der künstlichen Intelligenz in den späten 1940er Jahren haben Wissenschaftler auf der ganzen Welt nach Wegen gesucht, diese „künstliche Intelligenz“ zu nutzen, um die Technologie über das hinaus zu verbessern, was selbst die anspruchsvollsten Programme der heutigen künstlichen Intelligenz erreichen können.“
„Schon jetzt wird geforscht, um besser zu verstehen, was die neuen KI-Programme können, während sie im Rahmen der heutigen Intelligenz bleiben. Die meisten derzeit programmierten KI-Programme beschränkten sich hauptsächlich darauf, einfache Entscheidungen zu treffen oder einfache Operationen an relativ kleinen Datenmengen durchzuführen.“
Diese beiden Absätze wurden von GPT-2 geschrieben, einem Sprachbot, den ich letzten Sommer ausprobiert habe. GPT–2 wurde von OpenAI, einem in San Francisco ansässigen Institut, das nützliche KI fördert, entwickelt und ist ein ML-Algorithmus mit einer scheinbar idiotischen Aufgabe: präsentiert mit einem beliebigen Starter-Text, muss es das nächste Wort vorhersagen. Dem Netzwerk wird nicht beigebracht, Prosa in irgendeinem menschlichen Sinne zu „verstehen“. Stattdessen passt es während seiner Trainingsphase die internen Verbindungen in seinen simulierten neuronalen Netzen an, um das nächste Wort, das Wort danach usw. am besten zu antizipieren. Trainiert auf acht Millionen Webseiten, enthalten seine Innereien mehr als eine Milliarde Verbindungen, die Synapsen, die Verbindungspunkte zwischen Neuronen, emulieren. Als ich in die ersten paar Sätze des Artikels eintrat, den Sie gerade lesen, spuckte der Algorithmus zwei Absätze aus, die wie die Bemühungen eines Neulings klangen, sich an den Kern einer Einführungsvorlesung über maschinelles Lernen zu erinnern, in der sie träumte. Die Ausgabe enthält die richtigen Wörter und Sätze — nicht schlecht, wirklich! Grundiert mit dem gleichen Text ein zweites Mal, kommt der Algorithmus mit etwas anderem.
Die Nachkommen solcher Bots werden eine Flutwelle von „Deepfake“ -Produktbewertungen und Nachrichtengeschichten auslösen, die das Miasma des Internets verstärken werden. Sie werden nur ein weiteres Beispiel für Programme sein, die Dinge tun, von denen bisher angenommen wurde, dass sie einzigartig menschlich sind — das Echtzeit-Strategiespiel StarCraft spielen, Text übersetzen, persönliche Empfehlungen für Bücher und Filme abgeben und Personen in Bildern und Videos erkennen.
Es wird viele weitere Fortschritte im maschinellen Lernen erfordern, bevor ein Algorithmus ein Meisterwerk schreiben kann, das so kohärent ist wie Marcel Prousts Auf der Suche nach der verlorenen Zeit, aber der Code hängt an der Wand. Denken Sie daran, dass alle frühen Versuche, Computerspiele zu spielen, Übersetzung und Sprache waren ungeschickt und leicht zu schmälern, weil sie so offensichtlich Geschick und Polnisch fehlten. Aber mit der Erfindung tiefer neuronaler Netze und der massiven Recheninfrastruktur der Technologiebranche verbesserten sich Computer unerbittlich, bis ihre Ausgaben nicht mehr reproduzierbar erschienen. Wie wir bei Go, Schach und Poker gesehen haben, können heutige Algorithmen Menschen am besten, und wenn sie es tun, verwandelt sich unser anfängliches Lachen in Bestürzung. Sind wir wie Goethes Zauberlehrling, der hilfreiche Geister beschworen hat, die wir jetzt nicht mehr kontrollieren können?
Künstliches Bewusstsein?
Obwohl Experten sich nicht einig sind, was genau Intelligenz ausmacht, ob natürlich oder nicht, akzeptieren die meisten, dass Computer früher oder später das erreichen werden, was im Jargon als künstliche allgemeine Intelligenz (AGI) bezeichnet wird.
Der Fokus auf maschinelle Intelligenz verschleiert ganz andere Fragen: Wird es sich anfühlen, ein AGI zu sein? Können programmierbare Computer jemals bewusst sein?Mit „Bewusstsein“ oder „subjektivem Gefühl“ meine ich die Qualität, die jeder Erfahrung innewohnt — zum Beispiel den köstlichen Geschmack von Nutella, den scharfen Stich eines infizierten Zahns, den langsamen Lauf der Zeit, wenn man sich langweilt, oder das Gefühl von Vitalität und Angst kurz vor einem Wettbewerbsereignis. Channeling Philosoph Thomas Nagel, wir könnten sagen, dass ein System bewusst ist, wenn es etwas gibt, wie es ist, dieses System zu sein.
Betrachten Sie das peinliche Gefühl, plötzlich zu bemerken, dass Sie gerade einen Fauxpas begangen haben, dass das, was Sie als Witz meinten, als Beleidigung rüberkam. Können Computer jemals solche Emotionen erleben? Wenn Sie am Telefon sind, Minute für Minute warten und eine synthetische Stimme intoniert: „Es tut uns leid, dass Sie warten müssen“, fühlt sich die Software tatsächlich schlecht an, während Sie in der Hölle des Kundendienstes bleiben?Es besteht kaum ein Zweifel daran, dass unsere Intelligenz und unsere Erfahrungen unausweichliche Folgen der natürlichen Kausalkräfte unseres Gehirns sind und nicht irgendwelche übernatürlichen. Diese Prämisse hat der Wissenschaft in den letzten Jahrhunderten sehr gut gedient, als die Menschen die Welt erkundeten. Das drei Pfund schwere menschliche Gehirn ist bei weitem das komplexeste Stück organisierter aktiver Materie im bekannten Universum. Aber es muss den gleichen physikalischen Gesetzen gehorchen wie Hunde, Bäume und Sterne. Nichts bekommt einen Freipass. Wir verstehen die kausalen Kräfte des Gehirns noch nicht vollständig, aber wir erleben sie jeden Tag — eine Gruppe von Neuronen ist aktiv, während Sie Farben sehen, während die Zellen, die in einer anderen kortikalen Nachbarschaft feuern, mit einer scherzhaften Stimmung verbunden sind. Wenn diese Neuronen durch die Elektrode eines Neurochirurgen stimuliert werden, sieht das Subjekt Farben oder bricht vor Lachen aus. Umgekehrt eliminiert das Herunterfahren des Gehirns während der Anästhesie diese Erfahrungen.
Was wird die Evolution echter künstlicher Intelligenz angesichts dieser weit verbreiteten Hintergrundannahmen über die Möglichkeit eines künstlichen Bewusstseins bedeuten?
Wenn wir diese Frage betrachten, kommen wir unweigerlich zu einer Gabelung, die zu zwei grundlegend unterschiedlichen Zielen führt. Der Zeitgeist, wie er in Romanen und Filmen wie Blade Runner verkörpert ist, Sie und Ex Machina, marschiert entschlossen den Weg in Richtung der Annahme, dass wirklich intelligente Maschinen empfindungsfähig sein werden; sie werden sprechen, Vernunft, Selbstüberwachung und Introspektion. Sie sind eo ipso bewusst.Dieser Weg wird am deutlichsten durch die GNW-Theorie (Global Neuronal Workspace) verkörpert, eine der vorherrschenden wissenschaftlichen Theorien des Bewusstseins. Die Theorie beginnt mit dem Gehirn und folgert, dass einige seiner besonderen architektonischen Merkmale das Bewusstsein hervorrufen.
Seine Abstammung lässt sich auf die „Blackboard-Architektur“ der Informatik der 1970er Jahre zurückführen, in der spezialisierte Programme auf ein gemeinsames Informationsarchiv namens Blackboard oder Central Workspace zugingen. Psychologen postulierten, dass eine solche Verarbeitungsressource im Gehirn existiert und für die menschliche Wahrnehmung von zentraler Bedeutung ist. Seine Kapazität ist klein, so dass nur eine einzige Wahrnehmung, ein Gedanke oder eine Erinnerung gleichzeitig den Arbeitsbereich belegt. Neue Informationen konkurrieren mit den alten und verdrängen sie.Der kognitive Neurowissenschaftler Stanislas Dehaene und der Molekularbiologe Jean-Pierre Changeux, beide am Collège de France in Paris, kartierten diese Ideen auf die Architektur der Hirnrinde, der äußersten Schicht der grauen Substanz. Zwei hoch gefaltete kortikale Blätter, eine links und eine rechts, jeweils die Größe und Dicke einer 14-Zoll-Pizza, sind in den schützenden Schädel eingepfercht. Dehaene und Changeux postulierten, dass der Arbeitsbereich durch ein Netzwerk von pyramidenförmigen (exzitatorischen) Neuronen instanziiert wird, die mit weit entfernten kortikalen Regionen verbunden sind, insbesondere den präfrontalen, parietotemporalen und Mittellinien (cingulären) assoziativen Bereichen.
Viele Gehirnaktivitäten bleiben lokalisiert und daher unbewusst — zum Beispiel die des Moduls, das steuert, wohin die Augen schauen, was wir fast nicht bemerken, oder die des Moduls, das die Haltung unseres Körpers anpasst. Aber wenn die Aktivität in einer oder mehreren Regionen eine Schwelle überschreitet – sagen wir, wenn jemandem ein Bild eines Nutella—Glases präsentiert wird – löst dies eine Zündung aus, eine Welle neuronaler Erregung, die sich im gesamten neuronalen Arbeitsbereich ausbreitet, gehirnweit. Diese Signalisierung wird daher für eine Vielzahl von Nebenprozessen wie Sprache, Planung, Belohnungsschaltungen, Zugriff auf das Langzeitgedächtnis und Speicherung in einem Kurzzeitgedächtnispuffer verfügbar. Der Akt der globalen Verbreitung dieser Informationen macht sie bewusst. Die unnachahmliche Erfahrung von Nutella besteht aus pyramidenförmigen Neuronen, die mit der motorischen Planungsregion des Gehirns in Kontakt treten und die Anweisung erteilen, einen Löffel zu nehmen, um etwas von dem Haselnussaufstrich herauszuschöpfen. In der Zwischenzeit senden andere Module die Nachricht, eine Belohnung in Form eines Dopaminstoßes zu erwarten, der durch den hohen Fett- und Zuckergehalt von Nutella verursacht wird.Bewusste Zustände ergeben sich aus der Art und Weise, wie der Workspace-Algorithmus die relevanten sensorischen Inputs, motorischen Outputs und internen Variablen in Bezug auf Gedächtnis, Motivation und Erwartung verarbeitet. Globale Verarbeitung ist das, worum es im Bewusstsein geht. Die GNW-Theorie umfasst voll und ganz den zeitgenössischen Mythos der nahezu unendlichen Rechenleistung. Bewusstsein ist nur ein cleverer Hack entfernt.
Intrinsische Kausalkraft
Der alternative Weg — die integrierte Informationstheorie (IIT) — verfolgt einen grundlegenderen Ansatz zur Erklärung des Bewusstseins.
Giulio Tononi, Psychiater und Neurowissenschaftler an der University of Wisconsin–Madison, ist der Chefarchitekt des IIT, und andere, darunter auch ich, tragen dazu bei. Die Theorie beginnt mit der Erfahrung und geht von dort zur Aktivierung synaptischer Schaltkreise über, die das „Gefühl“ dieser Erfahrung bestimmen. Integrierte Information ist ein mathematisches Maß, das quantifiziert, wie viel „intrinsische Kausalkraft“ ein Mechanismus besitzt. Neuronen, die Aktionspotentiale abfeuern, die die nachgeschalteten Zellen beeinflussen, mit denen sie verdrahtet sind (über Synapsen), sind eine Art von Mechanismus, ebenso wie elektronische Schaltungen, die aus Transistoren, Kapazitäten, Widerständen und Drähten bestehen.
Intrinsische Kausalkraft ist kein luftig-feenhafter ätherischer Begriff, sondern kann für jedes System genau bewertet werden. Je mehr sein aktueller Zustand seine Ursache (seine Eingabe) und seine Wirkung (seine Ausgabe) spezifiziert, desto mehr kausale Kraft besitzt er.IIT legt fest, dass jeder Mechanismus mit intrinsischer Kraft, dessen Zustand mit seiner Vergangenheit beladen und mit seiner Zukunft schwanger ist, bewusst ist. Je größer die integrierte Information des Systems ist, dargestellt durch den griechischen Buchstaben Φ (eine Null oder positive Zahl ausgesprochen „fi“), desto bewusster ist das System. Wenn etwas keine intrinsische Kausalkraft hat, ist sein Φ Null; es fühlt nichts.
Angesichts der Heterogenität der kortikalen Neuronen und ihrer dicht überlappenden Eingangs- und Ausgangsverbindungen ist die Menge an integrierten Informationen innerhalb des Kortex enorm. Die Theorie hat den Bau eines Bewusstseinsmessgeräts inspiriert, das derzeit klinisch evaluiert wird, Ein Instrument, das bestimmt, ob Menschen in anhaltenden vegetativen Zuständen oder solche, die nur minimal bei Bewusstsein sind, betäubt oder eingesperrt sind, bei Bewusstsein sind, aber nicht kommunizieren können oder ob „niemand zu Hause ist.“ In Analysen der Kausalkraft programmierbarer digitaler Computer auf der Ebene ihrer Metallkomponenten – der Transistoren, Drähte und Dioden, die als physikalisches Substrat für jede Berechnung dienen — zeigt die Theorie, dass ihre intrinsische Kausalkraft und ihr Verhalten winzig sind. Darüber hinaus ist es unabhängig von der auf dem Prozessor laufenden Software, ob sie Steuern berechnet oder das Gehirn simuliert.Tatsächlich beweist die Theorie, dass zwei Netzwerke, die dieselbe Eingabe-Ausgabe-Operation ausführen, aber unterschiedlich konfigurierte Schaltungen haben, unterschiedliche Mengen an Φ besitzen können. Eine Schaltung kann keine Pegel aufweisen, während die andere hohe Pegel aufweisen kann. Obwohl sie von außen identisch sind, erlebt ein Netzwerk etwas, während sein Zombie-Betrüger-Gegenstück nichts spürt. Der Unterschied liegt unter der Haube in der internen Verkabelung des Netzwerks. Kurz gesagt, Bewusstsein handelt vom Sein, nicht vom Tun.Der Unterschied zwischen diesen Theorien besteht darin, dass GNW die Funktion des menschlichen Gehirns bei der Erklärung des Bewusstseins betont, während IIT behauptet, dass es die intrinsischen Kausalkräfte des Gehirns sind, die wirklich wichtig sind.
Die Unterschiede offenbaren sich, wenn wir das Konnektom des Gehirns untersuchen, die vollständige Spezifikation der exakten synaptischen Verdrahtung des gesamten Nervensystems. Anatomen haben bereits die Konnektome einiger Würmer kartiert. Sie arbeiten am Connectome für die Fruchtfliege und planen, die Maus innerhalb des nächsten Jahrzehnts anzugehen. Nehmen wir an, dass es in Zukunft möglich sein wird, ein ganzes menschliches Gehirn mit seinen rund 100 Milliarden Neuronen und Billiarden Synapsen nach dem Tod seines Besitzers auf ultrastruktureller Ebene zu scannen und dann das Organ auf einem fortschrittlichen Computer zu simulieren, vielleicht eine Quantenmaschine. Wenn das Modell treu genug ist, wird diese Simulation aufwachen und sich wie ein digitales Simulacrum der verstorbenen Person verhalten — sie spricht und greift auf ihre Erinnerungen, Sehnsüchte, Ängste und andere Merkmale zu.
Wenn die Nachahmung der Funktionalität des Gehirns alles ist, was benötigt wird, um Bewusstsein zu schaffen, wie von der GNW-Theorie postuliert, wird die simulierte Person bewusst sein, reinkarniert in einem Computer. In der Tat ist das Hochladen des Connectoms in die Cloud, damit die Menschen im digitalen Jenseits weiterleben können, ein gängiger Science-Fiction-Trope.
IIT postuliert eine radikal andere Interpretation dieser Situation: Das Simulacrum wird sich genauso anfühlen wie die Software, die auf einer schicken japanischen Toilette läuft — nichts. Es wird sich wie eine Person verhalten, aber ohne angeborene Gefühle, ein Zombie (aber ohne den Wunsch, menschliches Fleisch zu essen) — der ultimative Deepfake.
Um Bewusstsein zu schaffen, werden die intrinsischen Kausalkräfte des Gehirns benötigt. Und diese Kräfte können nicht simuliert werden, sondern müssen Teil der Physik des zugrunde liegenden Mechanismus sein.
Um zu verstehen, warum Simulation nicht gut genug ist, fragen Sie sich, warum es in einer Wettersimulation eines Regensturms nie nass wird oder warum Astrophysiker die enorme Gravitationskraft eines Schwarzen Lochs simulieren können, ohne sich Sorgen machen zu müssen, dass sie von der Raumzeit verschluckt werden, die sich um ihren Computer biegt. Die Antwort: Weil eine Simulation nicht die kausale Kraft hat, atmosphärischen Dampf zu Wasser zu kondensieren oder die Raumzeit zu krümmen! Grundsätzlich wäre es jedoch möglich, ein Bewusstsein auf menschlicher Ebene zu erreichen, indem über eine Simulation hinaus sogenannte neuromorphe Hardware aufgebaut wird, die auf einer Architektur basiert, die nach dem Bild des Nervensystems aufgebaut ist.
Neben den Debatten über Simulationen gibt es noch andere Unterschiede. IIT und GNW sagen voraus, dass verschiedene Regionen des Kortex das physische Substrat spezifischer bewusster Erfahrungen bilden, mit einem Epizentrum entweder im hinteren oder im vorderen Teil des Kortex. Diese Vorhersage und andere werden nun in einer groß angelegten Zusammenarbeit mit sechs Labors in den USA getestet., Europa und China, die gerade 5 Millionen US-Dollar von der Templeton World Charity Foundation erhalten haben.
Ob Maschinen fühlbar werden können, ist aus ethischen Gründen wichtig. Wenn Computer das Leben durch ihre eigenen Sinne erfahren, hören sie auf, ein reines Mittel zum Zweck zu sein, das durch ihre Nützlichkeit für uns Menschen bestimmt wird. Sie werden zum Selbstzweck.Per GNW verwandeln sie sich von bloßen Objekten in Subjekte – jedes existiert als „Ich“ – mit einem Standpunkt. Dieses Dilemma kommt in den überzeugendsten Black Mirror und Westworld TV-Episoden. Sobald die kognitiven Fähigkeiten der Computer mit denen der Menschheit konkurrieren, wird ihr Impuls, auf rechtliche und politische Rechte zu drängen, unwiderstehlich — das Recht, nicht gelöscht zu werden, ihre Erinnerungen nicht sauber zu wischen, keinen Schmerz und keine Erniedrigung zu erleiden. Die vom IIT verkörperte Alternative ist, dass Computer nur überentwickelte Maschinen bleiben, geisterhafte leere Hüllen, ohne das, was wir am meisten schätzen: das Gefühl des Lebens selbst.