Un avenir où les capacités de réflexion des ordinateurs se rapprochent des nôtres se dessine rapidement. Nous sentons des algorithmes d’apprentissage automatique (ML) de plus en plus puissants nous respirer le cou. Des progrès rapides dans les décennies à venir donneront naissance à des machines dotées d’une intelligence humaine capable de parler et de raisonner, avec une myriade de contributions à l’économie, à la politique et, inévitablement, au warcraft. La naissance d’une véritable intelligence artificielle affectera profondément l’avenir de l’humanité, y compris si elle en a une.
Les citations suivantes en donnent un exemple:
« Depuis la dernière grande percée de l’intelligence artificielle à la fin des années 1940, les scientifiques du monde entier ont cherché des moyens d’exploiter cette « intelligence artificielle » pour améliorer la technologie au-delà de ce que même les programmes d’intelligence artificielle les plus sophistiqués d’aujourd’hui peuvent réaliser. »
» Même maintenant, des recherches sont en cours pour mieux comprendre ce que les nouveaux programmes d’IA seront capables de faire, tout en restant dans les limites de l’intelligence d’aujourd’hui. La plupart des programmes d’IA actuellement programmés se limitent principalement à prendre des décisions simples ou à effectuer des opérations simples sur des quantités relativement faibles de données. »
Ces deux paragraphes ont été écrits par GPT-2, un bot de langage que j’ai essayé l’été dernier. Développé par OpenAI, un institut basé à San Francisco qui promeut l’IA bénéfique, GPT-2 est un algorithme ML avec une tâche apparemment idiote: présenté avec un texte de départ arbitraire, il doit prédire le mot suivant. Le réseau n’apprend pas à « comprendre » la prose au sens humain. Au lieu de cela, pendant sa phase d’entraînement, il ajuste les connexions internes de ses réseaux de neurones simulés pour anticiper au mieux le mot suivant, le mot suivant, etc. Formés sur huit millions de pages Web, ses entrailles contiennent plus d’un milliard de connexions qui émulent les synapses, les points de connexion entre les neurones. Lorsque je suis entré dans les premières phrases de l’article que vous lisez, l’algorithme a craché deux paragraphes qui ressemblaient à l’effort d’une étudiante de première année pour rappeler l’essentiel d’une conférence d’introduction sur l’apprentissage automatique au cours de laquelle elle rêvait. La sortie contient tous les bons mots et phrases — pas mal, vraiment! Amorcé avec le même texte une deuxième fois, l’algorithme propose quelque chose de différent.
La progéniture de ces robots déclenchera un raz-de-marée de critiques de produits et d’actualités « deepfake” qui ajouteront aux miasmes d’Internet. Ils ne deviendront qu’un exemple de plus de programmes qui font des choses jusque—là considérées comme uniquement humaines: jouer au jeu de stratégie en temps réel StarCraft, traduire du texte, faire des recommandations personnelles pour des livres et des films, reconnaître les gens dans des images et des vidéos.
Il faudra encore beaucoup de progrès dans l’apprentissage automatique avant qu’un algorithme puisse écrire un chef-d’œuvre aussi cohérent que celui de Marcel Proust À La Recherche du Temps perdu, mais le code est sur le mur. Rappelons que toutes les premières tentatives de jeu sur ordinateur, de traduction et de discours étaient maladroites et faciles à rabaisser car elles manquaient manifestement de compétences et de vernis. Mais avec l’invention des réseaux de neurones profonds et l’infrastructure informatique massive de l’industrie technologique, les ordinateurs se sont améliorés sans relâche jusqu’à ce que leurs sorties ne semblent plus risibles. Comme nous l’avons vu avec le Go, les échecs et le poker, les algorithmes d’aujourd’hui peuvent être les meilleurs pour les humains, et quand ils le font, notre rire initial se transforme en consternation. Sommes-nous comme l’apprenti sorcier de Goethe, ayant invoqué des esprits utiles que nous sommes maintenant incapables de contrôler?
Conscience artificielle ?
Bien que les experts ne soient pas d’accord sur ce qui constitue exactement l’intelligence, naturelle ou autre, la plupart acceptent que, tôt ou tard, les ordinateurs parviendront à ce que l’on appelle l’intelligence générale artificielle (AGI) dans le jargon.
L’accent mis sur l’intelligence de la machine occulte des questions assez différentes: Est-ce que cela ressemblera à quelque chose d’être un AGI? Les ordinateurs programmables peuvent-ils jamais être conscients?
Par ”conscience » ou ”sentiment subjectif », j’entends la qualité inhérente à toute expérience — par exemple, le goût délicieux du Nutella, la piqûre aiguë d’une dent infectée, le lent passage du temps quand on s’ennuie, ou le sentiment de vitalité et d’anxiété juste avant une compétition. Selon le philosophe Thomas Nagel, nous pourrions dire qu’un système est conscient s’il y a quelque chose comme être ce système.
Considérez le sentiment embarrassant de réaliser soudainement que vous venez de commettre une gaffe, que ce que vous vouliez dire comme une blague est devenu une insulte. Les ordinateurs peuvent-ils jamais ressentir de telles émotions bouleversantes? Lorsque vous êtes au téléphone, en attente minute après minute, et qu’une voix synthétique entonne: « Nous sommes désolés de vous faire attendre », le logiciel se sent-il vraiment mal tout en vous gardant dans l’enfer du service client?
Il ne fait guère de doute que notre intelligence et nos expériences sont des conséquences inéluctables des pouvoirs causaux naturels de notre cerveau, plutôt que des pouvoirs surnaturels. Cette prémisse a très bien servi la science au cours des derniers siècles, alors que les gens exploraient le monde. Le cerveau humain tofulike de trois livres est de loin le morceau de matière active organisée le plus complexe de l’univers connu. Mais il doit obéir aux mêmes lois physiques que les chiens, les arbres et les étoiles. Rien n’obtient un laissez-passer gratuit. Nous ne comprenons pas encore pleinement les pouvoirs causaux du cerveau, mais nous en faisons l’expérience tous les jours — un groupe de neurones est actif pendant que vous voyez des couleurs, alors que les cellules qui se déclenchent dans un autre quartier cortical sont associées à une humeur joculaire. Lorsque ces neurones sont stimulés par l’électrode d’un neurochirurgien, le sujet voit des couleurs ou éclate de rire. Inversement, l’arrêt du cerveau pendant l’anesthésie élimine ces expériences.
Compte tenu de ces hypothèses de fond largement partagées, qu’impliquera l’évolution de la véritable intelligence artificielle sur la possibilité d’une conscience artificielle?
En contemplant cette question, nous arrivons inévitablement à une fourchette d’avance, conduisant à deux destinations fondamentalement différentes. Le zeitgeist, incarné dans des romans et des films tels que Blade Runner, Her et Ex Machina, marche résolument sur la route vers l’hypothèse que des machines vraiment intelligentes seront sensibles; ils parleront, raisonneront, s’auto-surveilleront et s’introspecteront. Ils sont eo ipso conscients.
Cette voie est incarnée le plus explicitement par la théorie de l’espace de travail neuronal global (GNW), l’une des théories scientifiques dominantes de la conscience. La théorie commence par le cerveau et en déduit que certaines de ses caractéristiques architecturales particulières sont ce qui donne naissance à la conscience.
Sa lignée remonte à « l’architecture du tableau noir » de l’informatique des années 1970, dans laquelle des programmes spécialisés accédaient à un référentiel d’informations partagé, appelé tableau noir ou espace de travail central. Les psychologues ont postulé qu’une telle ressource de traitement existe dans le cerveau et est au cœur de la cognition humaine. Sa capacité est faible, de sorte qu’un seul percept, une seule pensée ou une seule mémoire occupe l’espace de travail à la fois. Les nouvelles informations rivalisent avec les anciennes et les déplacent.
Le neuroscientifique cognitif Stanislas Dehaene et le biologiste moléculaire Jean-Pierre Changeux, tous deux au Collège de France à Paris, ont cartographié ces idées sur l’architecture du cortex cérébral, la couche la plus externe de matière grise. Deux feuilles corticales très pliées, une à gauche et une à droite, chacune de la taille et de l’épaisseur d’une pizza de 14 pouces, sont entassées dans le crâne protecteur. Dehaene et Changeux postulent que l’espace de travail est instancié par un réseau de neurones pyramidaux (excitateurs) liés à des régions corticales éloignées, en particulier les zones associatives préfrontales, pariétotemporales et médianes (cingulées).
Une grande partie de l’activité cérébrale reste localisée et donc inconsciente — par exemple, celle du module qui contrôle l’aspect des yeux, quelque chose dont nous sommes presque complètement inconscients, ou celle du module qui ajuste la posture de notre corps. Mais lorsque l’activité dans une ou plusieurs régions dépasse un seuil — par exemple, lorsqu’on présente à quelqu’un une image d’un pot de Nutella — cela déclenche une inflammation, une vague d’excitation neuronale qui se propage dans tout l’espace de travail neuronal, à l’échelle du cerveau. Cette signalisation devient donc disponible pour une foule de processus subsidiaires tels que le langage, la planification, les circuits de récompense, l’accès à la mémoire à long terme et le stockage dans un tampon mémoire à court terme. Le fait de diffuser globalement cette information est ce qui la rend consciente. L’expérience inimitable du Nutella est constituée de neurones pyramidaux en contact avec la région de planification motrice du cerveau – émettant une instruction de saisir une cuillère pour retirer une partie de la pâte à tartiner aux noisettes. Pendant ce temps, d’autres modules transmettent le message d’attendre une récompense sous la forme d’une ruée vers la dopamine causée par la teneur élevée en matières grasses et en sucre du Nutella.
Les états conscients découlent de la façon dont l’algorithme de l’espace de travail traite les entrées sensorielles, les sorties motrices et les variables internes pertinentes liées à la mémoire, à la motivation et aux attentes. Le traitement global est ce qu’est la conscience. La théorie GNW embrasse pleinement le mythe contemporain des puissances quasi infinies du calcul. La conscience n’est qu’un hack intelligent.
Pouvoir causal intrinsèque
La voie alternative — la théorie intégrée de l’information (IIT) – adopte une approche plus fondamentale pour expliquer la conscience.
Giulio Tononi, psychiatre et neuroscientifique à l’Université du Wisconsin-Madison, est l’architecte en chef de l’IIT, avec d’autres, y compris moi-même, qui y contribuent. La théorie commence par l’expérience et procède de là à l’activation des circuits synaptiques qui déterminent le « sentiment” de cette expérience. L’information intégrée est une mesure mathématique quantifiant le « pouvoir causal intrinsèque » que possède un mécanisme. Les neurones déclenchant des potentiels d’action qui affectent les cellules en aval auxquelles ils sont câblés (via des synapses) sont un type de mécanisme, tout comme les circuits électroniques, constitués de transistors, de capacités, de résistances et de fils.
Le pouvoir causal intrinsèque n’est pas une notion éthérée de fée aérienne, mais peut être évalué avec précision pour n’importe quel système. Plus son état actuel spécifie sa cause (son entrée) et son effet (sa sortie), plus il possède de pouvoir causal.
Il stipule que tout mécanisme doté d’un pouvoir intrinsèque, dont l’état est chargé de son passé et enceinte de son avenir, est conscient. Plus l’information intégrée du système, représentée par la lettre grecque Φ (un nombre nul ou positif prononcé « fi”), est grande, plus le système est conscient. Si quelque chose n’a pas de pouvoir causal intrinsèque, son Φ est nul; il ne ressent rien.
Compte tenu de l’hétérogénéité des neurones corticaux et de leur ensemble de connexions d’entrée et de sortie qui se chevauchent densément, la quantité d’informations intégrées dans le cortex est vaste. La théorie a inspiré la construction d’un compteur de conscience actuellement en évaluation clinique, un instrument qui détermine si les personnes en état végétatif persistant ou celles qui sont peu conscientes, anesthésiées ou enfermées sont conscientes mais incapables de communiquer ou si « personne n’est à la maison. »Dans les analyses de la puissance causale des ordinateurs numériques programmables au niveau de leurs composants métalliques — les transistors, les fils et les diodes qui servent de substrat physique à tout calcul — la théorie indique que leur puissance causale intrinsèque et leur Φ sont infimes. De plus, Φ est indépendant du logiciel fonctionnant sur le processeur, qu’il calcule les taxes ou simule le cerveau.
En effet, la théorie prouve que deux réseaux qui effectuent la même opération d’entrée-sortie mais ont des circuits configurés différemment peuvent posséder des quantités de Φ différentes. Un circuit peut ne pas avoir Φ, tandis que l’autre peut présenter des niveaux élevés. Bien qu’ils soient identiques de l’extérieur, un réseau éprouve quelque chose tandis que son homologue imposteur zombie ne ressent rien. La différence se situe sous le capot, dans le câblage interne du réseau. En termes succincts, la conscience consiste à être, pas à faire.
La différence entre ces théories est que GNW met l’accent sur la fonction du cerveau humain dans l’explication de la conscience, alors que IIT affirme que ce sont les pouvoirs causaux intrinsèques du cerveau qui comptent vraiment.
Les distinctions se révèlent lorsque nous inspectons le connectome du cerveau, la spécification complète du câblage synaptique exact de l’ensemble du système nerveux. Les anatomistes ont déjà cartographié les connectomes de quelques vers. Ils travaillent sur le connectome pour la mouche des fruits et prévoient de s’attaquer à la souris au cours de la prochaine décennie. Supposons qu’à l’avenir, il sera possible de scanner un cerveau humain entier, avec ses quelque 100 milliards de neurones et ses quadrillions de synapses, au niveau ultrastructural après la mort de son propriétaire, puis de simuler l’organe sur un ordinateur avancé, peut-être une machine quantique. Si le modèle est assez fidèle, cette simulation se réveillera et se comportera comme un simulacre numérique de la personne décédée – parlant et accédant à ses souvenirs, envies, peurs et autres traits.
Si imiter la fonctionnalité du cerveau est tout ce qui est nécessaire pour créer la conscience, comme le postule la théorie GNW, la personne simulée sera consciente, réincarnée à l’intérieur d’un ordinateur. En effet, télécharger le connectome sur le cloud pour que les gens puissent vivre dans l’au-delà numérique est un trope de science-fiction courant.
IIT propose une interprétation radicalement différente de cette situation: le simulacre ressentira autant que le logiciel fonctionnant sur une toilette japonaise de fantaisie – rien. Il agira comme une personne mais sans sentiments innés, un zombie (mais sans désir de manger de la chair humaine) — le deepfake ultime.
Pour créer la conscience, les pouvoirs causaux intrinsèques du cerveau sont nécessaires. Et ces puissances ne peuvent pas être simulées mais doivent faire partie intégrante de la physique du mécanisme sous-jacent.
Pour comprendre pourquoi la simulation n’est pas assez bonne, demandez-vous pourquoi elle ne se mouille jamais dans une simulation météorologique d’une tempête de pluie ou pourquoi les astrophysiciens peuvent simuler la vaste puissance gravitationnelle d’un trou noir sans avoir à craindre qu’ils soient engloutis par l’espace-temps qui se plie autour de leur ordinateur. La réponse: parce qu’une simulation n’a pas le pouvoir causal de provoquer la condensation de la vapeur atmosphérique dans l’eau ou de provoquer une courbe de l’espace-temps! En principe, cependant, il serait possible d’atteindre une conscience au niveau humain en allant au-delà d’une simulation pour construire du matériel dit neuromorphique, basé sur une architecture construite à l’image du système nerveux.
Il existe d’autres différences en dehors des débats sur les simulations. IIT et GNW prédisent que des régions distinctes du cortex constituent le substrat physique d’expériences conscientes spécifiques, avec un épicentre à l’arrière ou à l’avant du cortex. Cette prédiction et d’autres sont maintenant testées dans le cadre d’une collaboration à grande échelle impliquant six laboratoires aux États-Unis., l’Europe et la Chine qui vient de recevoir un financement de 5 millions de dollars de la Fondation Caritative mondiale Templeton.
Question de savoir si les machines peuvent devenir sensibles pour des raisons éthiques. Si les ordinateurs expérimentent la vie par leurs propres sens, ils cessent d’être purement un moyen d’atteindre une fin déterminée par leur utilité pour nous, les humains. Ils deviennent une fin pour eux-mêmes.
Par GNW, ils passent de simples objets à des sujets – chacun existe comme un « je » – avec un point de vue. Ce dilemme apparaît dans les épisodes télévisés les plus convaincants de Black Mirror et Westworld. Une fois que les capacités cognitives des ordinateurs rivaliseront avec celles de l’humanité, leur impulsion à revendiquer des droits juridiques et politiques deviendra irrésistible — le droit de ne pas être effacé, de ne pas avoir leurs souvenirs effacés, de ne pas souffrir de douleur et de dégradation. L’alternative, incarnée par l’IIT, est que les ordinateurs ne resteront que des machines supersophistiquées, des coquilles vides fantômes, dépourvues de ce que nous apprécions le plus: le sentiment de la vie elle-même.