Guardar
La modularidad cerebral inspira el
La modularidad cerebral inspira el desarrollo de IA, con modelos que integran múltiples redes neuronales especializadas para tareas concretas. (Imagen Ilustrativa Infobae)

El desarrollo de inteligencia artificial general (AGI), capaz de adaptarse y crear a niveles comparables a los humanos, es el mayor desafío de la investigación en IA. Aunque modelos de lenguaje como los actuales han superado muchas expectativas, su funcionamiento difiere de la capacidad humana: carecen de percepción, memoria flexible, razonamiento libre y aprendizaje continuo. Una vez terminan su entrenamiento, su conocimiento se vuelve estático y no pueden absorber experiencias nuevas como lo hace una persona.

Ben Goertzel, de SingularityNET, cree que estas herramientas ni siquiera logran rendir como un estudiante universitario, e incluso fallarían en educación preescolar. Lo resume Nancy Kanwisher, neurocientífica del Instituto Tecnológico de Massachusetts: “No deberíamos esperar que puedan pensar. Son procesadores de lenguaje”, explicó a Scientific American. Su contacto con la realidad, de momento, se limita al texto.

Frente a estas limitaciones, la idea de modularidad inspirada en el cerebro humano ha tomado fuerza. Si el cerebro actúa como una navaja suiza con herramientas especializadas, los modelos actuales serían solo un destornillador. Por eso, empresas como OpenAI desarrollan sistemas con “expertos” que abordan tareas específicas, desde matemáticas hasta búsquedas en Internet. Aunque OpenAI no detalla la estructura, se estima que su sistema GPT usa hasta dieciséis redes independientes para trabajar en conjunto.

El año pasado, firmas como Mistral y la china DeepSeek lanzaron versiones abiertas de estas arquitecturas, conocidas como “mixture of experts”, donde el trabajo se reparte para lograr mayor eficiencia. Como destacó Edoardo Ponti, de la Universidad de Edimburgo: “Busquemos lo mejor de ambos mundos: muchos parámetros y la eficiencia de un modelo pequeño”.

EL CEO de OpenAI, Sam
EL CEO de OpenAI, Sam Altman (Imagen ilustrativa Infobae)

Sin embargo, organizar la cooperación entre estos módulos plantea nuevos desafíos. “¿Cómo se transfiere la información del sistema de lenguaje a los de razonamiento lógico o social? Eso sigue siendo una incógnita”, exresó Anna Ivanova, del Instituto de Tecnología de Georgia. La integración de módulos separados en una sola conciencia de máquina es un obstáculo mayor para igualar la inteligencia humana.

Conciencia artificial y el espacio global de trabajo

Para enfrentar esta dificultad, muchos recurren a la teoría del espacio global de trabajo (GWT), creada por Bernard Baars. Según esta idea, la conciencia surge como una especie de sala de reuniones donde los módulos comparten información y pueden pedir ayuda entre sí. Otras propuestas, como el procesamiento predictivo o la información integrada, también se estudian, pero la GWT es popular porque sugiere que la conciencia es clave para tareas realmente complejas. Baars lo explicó así en Scientific American: en los retos sencillos, el cerebro responde en automático, pero ante dificultades necesita recurrir a la conciencia.

El concepto de módulos con “atención” y “competencia” para aportar al conjunto ya existía desde los años cincuenta, cuando Oliver Selfridge ideó el sistema “Pandemonium”. Baars formalizó la GWT en los años ochenta, y luego científicos como Stanislas Dehaene y Jean-Pierre Changeux mostraron cómo los módulos del cerebro compiten y cooperan para situar información relevante en un espacio común. Dehaene demostró experimentalmente que para realizar tareas de varios pasos, las personas necesitan estar conscientes, reafirmando el rol esencial del espacio global de trabajo.

Adaptar este modelo al software tiene sus propios retos. Los sistemas “mixture of experts” usan un mecanismo (“gating”) para repartir las tareas, pero esto puede ser inestable y difícil de depurar. En 2021, Manuel y Lenore Blum propusieron métodos para gestionar el espacio de trabajo, evitando que algunos módulos dominen y permitiendo conexiones directas, lo que facilitaría que las habilidades automáticas se independicen de la atención consciente.

El debate sobre la conciencia
El debate sobre la conciencia en máquinas persiste, con expertos que dudan de que la IA pueda replicar la experiencia consciente humana. (Imagen Ilustrativa Infobae)

Yoshua Bengio, de la Universidad de Montreal, considera que limitar la atención podría ser ventajoso para el desarrollo de la IA. Así opera el cerebro humano: encuentra reglas sencillas que expliquen el mundo, adoptando conceptos generales para optimizar el ahorro de energía y poder adaptarse a entornos nuevos. El equipo de Bengio desarrolló mecanismos de “atención suave”, asignando diferentes grados de importancia a varias opciones. Esto fue clave para la arquitectura “transformer”, base de modelos como GPT. Recientemente, también han experimentado con métodos que seleccionan opciones de forma probabilística para aproximarse a una comprensión más genuina.

Aun así, otro problema surge: cada módulo especialista puede acabar usando su propio “idioma” interno, lo que dificulta unir información de distintas áreas. Para resolverlo, Ryota Kanai (Araya) y Rufin VanRullen (Centro Nacional de Investigación Científica de Francia) proponen alinear internamente estos “idiomas” —los espacios latentes—, similar a los sistemas de traducción automática. Así, se pueden combinar datos de imagen y texto, lo que facilita la integración de información multipropósito.

Experimentos recientes y posibles futuros

Estos enfoques se han puesto a prueba en modelos como Perceiver, creado por Google DeepMind, capaz de procesar texto, imágenes y audio en un solo espacio común. Investigadores como el equipo de Araya identificaron que Perceiver, aun sin estar diseñado explícitamente bajo GWT, funcionaba de forma similar: con módulos independientes, selección de información y memoria de trabajo. Por su parte, GoodAI en Praga desarrolló AI People, un entorno virtual donde personajes manejados por IA muestran comportamientos y emociones sofisticados mediante la integración de memoria y lenguaje. Según Marek Rosa, el objetivo es que el modelo de lenguaje sea el motor central de la inteligencia, con memoria y estructura cognitiva añadiéndose alrededor.

Yann LeCun, de Meta, propone una alternativa: sistemas modulares con memoria a corto plazo y un “configurador” coordinador, más que enfocarse solo en modelos generativos. Este configurador, esencialmente, cumple una función parecida al espacio global de trabajo permitiendo tomar decisiones y planificar acciones, aunque LeCun evita hablar directamente de conciencia.

Investigadores exploran mecanismos de atención
Investigadores exploran mecanismos de atención y alineación de espacios latentes para mejorar la comunicación entre módulos de IA. REUTERS/Dado Ruvic

¿Pueden las máquinas ser conscientes?

Entre los investigadores, el tema sigue abierto. Para Dehaene, un sistema con espacio global de trabajo y auto-monitoreo podría ser consciente. Baars, en cambio, se muestra escéptico: “La computación consciente es una hipótesis sin una pizca de evidencia”, comentó a Scientific American. Para él y otros, como el desaparecido Stanley Franklin, la conciencia está profundamente arraigada en la vida biológica. Anil K. Seth, de la Universidad de Sussex, coincide: “La conciencia no es cuestión de inteligencia, sino de estar vivo”. Seth ha defendido la teoría del procesamiento predictivo, donde la conciencia resulta de anticipar los propios estados y ha analizado la hipótesis de la información integrada, viendo la conciencia como resultado de la complejidad interna de las redes cerebrales.

Nikolaus Kriegeskorte, de la Universidad de Columbia, reconoce los impresionantes avances tecnológicos, pero subraya un límite: “El cerebro humano tiene ciertos trucos que la ingeniería aún no ha conquistado”. El cerebro sigue siendo el mejor modelo de inteligencia general disponible.

En la carrera hacia la AGI, los investigadores han visto que problemas supuestamente sencillos, como la visión, son tremendamente exigentes, mientras que tareas complejas como el ajedrez son más accesibles para las máquinas. Hoy está claro que la inteligencia es un conjunto diverso de habilidades y cualidades combinadas. Como señala Goertzel, esta suma permite a las personas crear soluciones completamente nuevas. Si las máquinas aprenden a unir estas capacidades, podrían convertirse en compañeras de la humanidad en la exploración de lo desconocido.