Un futuro en el que las capacidades de pensamiento de las computadoras se acercan a las nuestras se está viendo rápidamente. Nos sentimos cada vez más poderosos algoritmos de aprendizaje automático (ML) respirando en el cuello. El rápido progreso en las próximas décadas producirá máquinas con inteligencia a nivel humano capaces de hablar y razonar, con una miríada de contribuciones a la economía, la política y, inevitablemente, la warcraft. El nacimiento de la verdadera inteligencia artificial afectará profundamente el futuro de la humanidad, incluso si la tiene.
Las siguientes citas proporcionan un ejemplo:
«Desde el momento en que se alcanzó el último gran avance de la inteligencia artificial a finales de la década de 1940, científicos de todo el mundo han buscado formas de aprovechar esta ‘inteligencia artificial’ para mejorar la tecnología más allá de lo que pueden lograr incluso los programas de inteligencia artificial más sofisticados de la actualidad.»
» Incluso ahora, la investigación está en curso para comprender mejor lo que los nuevos programas de IA podrán hacer, sin dejar de estar dentro de los límites de la inteligencia actual. La mayoría de los programas de IA actualmente programados se han limitado principalmente a tomar decisiones simples o realizar operaciones simples con cantidades relativamente pequeñas de datos.»
Estos dos párrafos fueron escritos por GPT-2, un robot de idiomas que probé el verano pasado. Desarrollado por OpenAI, un instituto con sede en San Francisco que promueve la IA beneficiosa, GPT-2 es un algoritmo de ML con una tarea aparentemente idiota: presentado con algún texto inicial arbitrario, debe predecir la siguiente palabra. A la red no se le enseña a «entender» la prosa en ningún sentido humano. En su lugar, durante su fase de entrenamiento, ajusta las conexiones internas en sus redes neuronales simuladas para anticipar mejor la siguiente palabra, la palabra después de esa, y así sucesivamente. Entrenado en ocho millones de páginas web, sus entrañas contienen más de mil millones de conexiones que emulan sinapsis, los puntos de conexión entre neuronas. Cuando ingresé las primeras frases del artículo que está leyendo, el algoritmo arrojó dos párrafos que sonaban como un esfuerzo de un estudiante de primer año para recordar la esencia de una conferencia introductoria sobre aprendizaje automático durante la cual soñaba despierta. La salida contiene todas las palabras y frases correctas, ¡no está mal, en realidad! Preparado con el mismo texto por segunda vez, el algoritmo presenta algo diferente.
La descendencia de estos bots desatará una oleada de reseñas de productos y noticias de «deepfake» que se sumarán al miasma de Internet. Se convertirán en un ejemplo más de programas que hacen cosas que hasta ahora se consideraban exclusivamente humanas: jugar al juego de estrategia en tiempo real StarCraft, traducir textos, hacer recomendaciones personales para libros y películas, reconocer a las personas en imágenes y videos.
Se necesitarán muchos avances en el aprendizaje automático antes de que un algoritmo pueda escribir una obra maestra tan coherente como la de Marcel Proust En busca del tiempo perdido, pero el código está en la pared. Recuerde que todos los primeros intentos de juego de computadora, traducción y habla fueron torpes y fáciles de menospreciar porque obviamente carecían de habilidad y pulido. Pero con la invención de redes neuronales profundas y la infraestructura computacional masiva de la industria tecnológica, las computadoras mejoraron implacablemente hasta que sus resultados ya no parecían risibles. Como hemos visto con Go, chess and poker, los algoritmos de hoy en día pueden mejorar a los humanos, y cuando lo hacen, nuestra risa inicial se convierte en consternación. ¿Somos como el aprendiz de brujo de Goethe, habiendo invocado espíritus útiles que ahora somos incapaces de controlar?
Conciencia Artificial?
Aunque los expertos no están de acuerdo sobre qué constituye exactamente la inteligencia, natural o no, la mayoría acepta que, tarde o temprano, las computadoras lograrán lo que se denomina inteligencia general artificial (AGI) en la jerga.
El enfoque en la inteligencia artificial oculta preguntas muy diferentes: ¿Se sentirá como algo ser un AGI? ¿Pueden las computadoras programables ser conscientes alguna vez?
Por «conciencia» o «sentimiento subjetivo», me refiero a la calidad inherente a cualquier experiencia, por ejemplo, el delicioso sabor de la Nutella, la picadura aguda de un diente infectado, el lento paso del tiempo cuando uno está aburrido, o la sensación de vitalidad y ansiedad justo antes de un evento competitivo. El filósofo canalizador Thomas Nagel, podríamos decir que un sistema es consciente si hay algo como ser ese sistema.
Considere la sensación embarazosa de darse cuenta de repente de que acaba de cometer una metedura de pata, de que lo que quiso decir como una broma se vio como un insulto. ¿Pueden las computadoras experimentar emociones tan agitadas? Cuando estás en el teléfono, esperando minuto tras minuto, y una voz sintética entona, «Lamentamos hacerte esperar», ¿el software realmente se siente mal mientras te mantiene en el infierno del servicio al cliente?
No hay duda de que nuestra inteligencia y nuestras experiencias son consecuencias inevitables de los poderes causales naturales de nuestro cerebro, en lugar de los sobrenaturales. Esa premisa ha servido a la ciencia extremadamente bien en los últimos siglos a medida que la gente exploraba el mundo. El cerebro humano de tres libras es, con mucho, el trozo más complejo de materia activa organizada en el universo conocido. Pero tiene que obedecer las mismas leyes físicas que los perros, los árboles y las estrellas. Nada tiene un pase libre. Todavía no entendemos completamente los poderes causales del cerebro, pero los experimentamos todos los días: un grupo de neuronas está activo mientras ves colores, mientras que las células que se disparan en otro vecindario cortical están asociadas con estar en un estado de ánimo jocoso. Cuando estas neuronas son estimuladas por el electrodo de un neurocirujano, el sujeto ve colores o estalla en la risa. Por el contrario, apagar el cerebro durante la anestesia elimina estas experiencias.
Dadas estas suposiciones de fondo ampliamente compartidas, ¿qué implicará la evolución de la verdadera inteligencia artificial sobre la posibilidad de la conciencia artificial?
Contemplando esta pregunta, inevitablemente llegamos a una bifurcación más adelante, que conduce a dos destinos fundamentalmente diferentes. El espíritu de la época, encarnado en novelas y películas como Blade Runner, Her y Ex Machina, marcha resueltamente por el camino hacia la suposición de que las máquinas verdaderamente inteligentes serán sensibles; ellos hablan, la razón, la auto-monitorear y hacer una introspección. Son eo ipso conscientes.
Este camino se personifica más explícitamente en la teoría del espacio de trabajo neuronal global (GNW), una de las teorías científicas dominantes de la conciencia. La teoría comienza con el cerebro e infiere que algunas de sus características arquitectónicas peculiares son las que dan lugar a la conciencia.
Su linaje se remonta a la «arquitectura de blackboard» de la informática de la década de 1970, en la que los programas especializados accedían a un repositorio compartido de información, llamado blackboard o espacio de trabajo central. Los psicólogos postularon que tal recurso de procesamiento existe en el cerebro y es central para la cognición humana. Su capacidad es pequeña, por lo que solo un único percepción, pensamiento o memoria ocupa el espacio de trabajo en un momento dado. La información nueva compite con la antigua y la desplaza.El neurocientífico cognitivo Stanislas Dehaene y el biólogo molecular Jean-Pierre Changeux, ambos del Collège de France en París, mapearon estas ideas en la arquitectura de la corteza cerebral, la capa más externa de materia gris. Dos láminas corticales muy plegadas, una a la izquierda y otra a la derecha, cada una del tamaño y el grosor de una pizza de 14 pulgadas, están hacinadas en el cráneo protector. Dehaene y Changeux postularon que el espacio de trabajo está instanciado por una red de neuronas piramidales (excitatorias) vinculadas a regiones corticales lejanas, en particular las áreas asociativas prefrontales, parietotemporales y de la línea media (cingulada).
Mucha actividad cerebral permanece localizada y, por lo tanto, inconsciente, por ejemplo, la del módulo que controla dónde miran los ojos, algo de lo que somos casi completamente ajenos, o la del módulo que ajusta la postura de nuestros cuerpos. Pero cuando la actividad en una o más regiones supera un umbral, por ejemplo, cuando a alguien se le presenta una imagen de un frasco de Nutella, se desencadena un encendido, una ola de excitación neuronal que se extiende por todo el espacio de trabajo neuronal, en todo el cerebro. Por lo tanto, esa señalización está disponible para una serie de procesos subsidiarios, como el lenguaje, la planificación, los circuitos de recompensa, el acceso a la memoria a largo plazo y el almacenamiento en un búfer de memoria a corto plazo. El acto de transmitir globalmente esta información es lo que la hace consciente. La experiencia inimitable de Nutella está constituida por neuronas piramidales que entran en contacto con la región de planificación motora del cerebro, emitiendo una instrucción para agarrar una cuchara para sacar parte de la extensión de avellana. Mientras tanto, otros módulos transmiten el mensaje de esperar una recompensa en forma de una descarga de dopamina causada por el alto contenido de grasa y azúcar de Nutella.
Los estados conscientes surgen de la forma en que el algoritmo del espacio de trabajo procesa las entradas sensoriales, salidas motoras y variables internas relevantes relacionadas con la memoria, la motivación y las expectativas. El procesamiento global es de lo que se trata la conciencia. La teoría de la GNW abarca completamente los mitos contemporáneos de los poderes casi infinitos de la computación. La conciencia está a solo un truco inteligente de distancia.
Poder causal intrínseco
El camino alternativo—la teoría de la información integrada (IIT)—adopta un enfoque más fundamental para explicar la conciencia.
Giulio Tononi, psiquiatra y neurocientífico de la Universidad de Wisconsin-Madison, es el arquitecto jefe de IIT, con otros, incluido yo, contribuyendo. La teoría comienza con la experiencia y procede de allí a la activación de circuitos sinápticos que determinan el «sentimiento» de esta experiencia. La información integrada es una medida matemática que cuantifica cuánto» poder causal intrínseco » posee un mecanismo. Las neuronas que activan potenciales de acción que afectan a las células a las que están conectadas (a través de sinapsis) son un tipo de mecanismo, al igual que los circuitos electrónicos, hechos de transistores, capacitancias, resistencias y cables.
El poder causal intrínseco no es una noción etérea de hadas, sino que puede evaluarse con precisión para cualquier sistema. Cuanto más especifica su estado actual su causa (su entrada) y su efecto (su salida), más poder causal posee.
Establece que cualquier mecanismo con poder intrínseco, cuyo estado está cargado de su pasado y preñado de su futuro, es consciente. Cuanto mayor es la información integrada del sistema, representada por la letra griega Φ (un número cero o positivo pronunciado «fi»), más consciente es el sistema. Si algo no tiene un poder causal intrínseco, su Φ es cero; no siente nada.
Dada la heterogeneidad de las neuronas corticales y su conjunto densamente superpuesto de conexiones de entrada y salida, la cantidad de información integrada dentro de la corteza es vasta. La teoría ha inspirado la construcción de un medidor de conciencia actualmente en evaluación clínica, un instrumento que determina si las personas en estados vegetativos persistentes o las que están mínimamente conscientes, anestesiadas o encerradas están conscientes pero no pueden comunicarse o si » no hay nadie en casa.»En los análisis de la potencia causal de las computadoras digitales programables a nivel de sus componentes metálicos—los transistores, cables y diodos que sirven como sustrato físico de cualquier cálculo—la teoría indica que su potencia causal intrínseca y su Φ son diminutos. Además, Φ es independiente del software que se ejecuta en el procesador, ya sea que calcule impuestos o simule el cerebro.
De hecho, la teoría demuestra que dos redes que realizan la misma operación de entrada-salida pero tienen circuitos configurados de manera diferente pueden poseer diferentes cantidades de Φ. Un circuito puede no tener Φ, mientras que el otro puede exhibir niveles altos. Aunque son idénticos desde el exterior, una red experimenta algo mientras que su contraparte zombi impostor no siente nada. La diferencia está debajo del capó, en el cableado interno de la red. En pocas palabras, la conciencia se trata de ser, no de hacer.
La diferencia entre estas teorías es que el GNW enfatiza la función del cerebro humano en la explicación de la conciencia, mientras que afirma que son los poderes causales intrínsecos del cerebro los que realmente importan.
Las distinciones se revelan cuando inspeccionamos el conectoma del cerebro, la especificación completa del cableado sináptico exacto de todo el sistema nervioso. Los anatomistas ya han mapeado los conectomas de algunos gusanos. Están trabajando en el conectoma para la mosca de la fruta y planean hacer frente al ratón en la próxima década. Supongamos que en el futuro será posible escanear todo un cerebro humano, con sus aproximadamente 100 mil millones de neuronas y cuatrillones de sinapsis, a nivel ultraestructural después de que su dueño haya muerto y luego simular el órgano en una computadora avanzada, tal vez una máquina cuántica. Si el modelo es lo suficientemente fiel, esta simulación se despertará y se comportará como un simulacro digital de la persona fallecida, hablando y accediendo a sus recuerdos, antojos, miedos y otros rasgos.
Si imitar la funcionalidad del cerebro es todo lo que se necesita para crear conciencia, como postula la teoría de la GNW, la persona simulada será consciente, reencarnada dentro de una computadora. De hecho, subir el conectoma a la nube para que la gente pueda vivir en la vida digital después de la muerte es un tropo común de ciencia ficción.
Postula una interpretación radicalmente diferente de esta situación: el simulacro se sentirá tanto como el software que se ejecuta en un lujoso inodoro japonés, nada. Actuará como una persona pero sin sentimientos innatos, un zombi (pero sin ningún deseo de comer carne humana), el último deepfake.
Para crear conciencia, se necesitan los poderes causales intrínsecos del cerebro. Y esos poderes no pueden ser simulados, sino que deben ser parte integrante de la física del mecanismo subyacente.
Para entender por qué la simulación no es lo suficientemente buena, pregúntese por qué nunca se moja dentro de una simulación meteorológica de una tormenta o por qué los astrofísicos pueden simular el vasto poder gravitacional de un agujero negro sin tener que preocuparse de que sean absorbidos por el espacio-tiempo que se dobla alrededor de su computadora. La respuesta: ¡porque una simulación no tiene el poder causal de hacer que el vapor atmosférico se condense en agua o de hacer que el espacio-tiempo se curve! En principio, sin embargo, sería posible alcanzar la conciencia a nivel humano yendo más allá de una simulación para construir el llamado hardware neuromórfico, basado en una arquitectura construida en la imagen del sistema nervioso.
Hay otras diferencias además de los debates sobre simulaciones. IIT y GNW predicen que distintas regiones de la corteza constituyen el sustrato físico de experiencias conscientes específicas, con un epicentro en la parte posterior o frontal de la corteza. Esta predicción y otras están siendo probadas en una colaboración a gran escala que involucra a seis laboratorios en los Estados Unidos., Europa y China que acaba de recibir 5 5 millones en fondos de la Fundación Benéfica Mundial Templeton.
Si las máquinas pueden convertirse en asuntos sensibles por razones éticas. Si las computadoras experimentan la vida a través de sus propios sentidos, dejan de ser puramente un medio para un fin determinado por su utilidad para nosotros los humanos. Se convierten en un fin para sí mismos.
Por GNW, pasan de meros objetos a sujetos-cada uno existe como una » I » – con un punto de vista. Este dilema surge en los episodios de televisión más convincentes de Black Mirror y Westworld. Una vez que las habilidades cognitivas de las computadoras rivalicen con las de la humanidad, su impulso de presionar por los derechos legales y políticos se volverá irresistible: el derecho a no ser eliminado, a no tener sus recuerdos limpios, a no sufrir dolor y degradación. La alternativa, encarnada por el IIT, es que las computadoras seguirán siendo solo maquinaria superfisticada, conchas vacías como fantasmas, desprovistas de lo que más valoramos: el sentimiento de la vida misma.