Guardar
La frontera entre la conciencia
La frontera entre la conciencia biológica y la inteligencia artificial se desdibuja: neuronas y algoritmos convergen en lo que podría ser el siguiente escalón evolutivo. (Imagen Ilustrativa Infobae)

Nosotros, los humanos, somos una especie obsesionada con recordar. Guardamos fotos, escribimos diarios, levantamos monumentos, registramos en la nube cada gesto de nuestra vida cotidiana. Desde hace miles de años construimos formas de conservar lo que sabemos, de evitar que el tiempo borre lo que hemos aprendido. Tal vez, si algo nos define más que cualquier otra característica, es esa necesidad de preservar la memoria: de transmitir información más allá del instante, de nosotros mismos, incluso más allá de nuestra muerte. En ese impulso se encuentra la raíz de nuestra evolución y, quizá, la clave de lo que está por venir.

Hace unos trescientos mil años, una rama de primates que ya había experimentado incontables bifurcaciones comenzó a diferenciarse del resto. No éramos los únicos homínidos del planeta: neandertales, denisovanos y otras especies hoy extinguidas compartían territorios y recursos. Sin embargo, una combinación improbable de factores cambió el rumbo de la historia. No fue solo la fuerza ni la velocidad lo que nos dio ventaja, sino la información. Mientras otras especies afinaban sus cuerpos para resistir o cazar mejor, nosotros afinamos nuestras mentes para anticipar, imaginar, comunicar. La competencia dejó de ser puramente física y se volvió cognitiva: ganaba quien podía pensar antes que actuar, o mejor aún, quien podía hacer que otros actuaran siguiendo una idea.

La historia de Homo sapiens puede leerse como la historia de una acumulación progresiva de información. Al principio, esa información se codificaba en los genes: en la química silenciosa del ADN que transmitía, de padres a hijos, los pequeños ajustes que permitían sobrevivir. Pero a medida que nuestro cerebro creció y se reorganizó, la información empezó a independizarse de la biología. Aprendimos a enseñar, a imitar, a narrar. Las conductas útiles ya no necesitaban miles de generaciones para fijarse: bastaban unas pocas palabras, un gesto, un ejemplo. En ese momento, la evolución biológica cedió espacio a la evolución cultural, mucho más veloz y versátil.

El aumento del tamaño cerebral fue un proceso costoso. Nuestros cerebros consumen cerca del 20% de la energía del cuerpo, una cifra desproporcionada para un mamífero de nuestro tamaño. Mantener esa masa gris exigió cambios drásticos en el metabolismo, en la dieta y en las estrategias sociales. Las madres humanas, por ejemplo, desarrollaron una fisiología única: la placenta se volvió un órgano altamente especializado, capaz de regular el intercambio hormonal y energético entre madre y feto de una forma que facilitó el desarrollo prolongado del cerebro. Esa interacción endocrina habría influido en la maduración neural y en la plasticidad cognitiva de nuestra especie. Nacemos prematuros en comparación con otros animales, y pasamos años dependientes del cuidado ajeno, lo que nos obliga a aprender, a socializar, a cooperar. Nuestra vulnerabilidad se transformó en la matriz de nuestra inteligencia.

El cerebro humano, lejos de ser una máquina rígida, es un sistema plástico, un entramado que se modifica constantemente. Cada experiencia, cada aprendizaje, altera la estructura microscópica de sus conexiones. Las neuronas no se limitan a transmitir impulsos: aprenden. Refuerzan algunas rutas, debilitan otras, generan patrones que pueden reconfigurarse. Aprender es literalmente modificar el propio cerebro. Y lo hacemos con una intensidad inusitada: mientras otras especies aprenden a adaptarse, nosotros aprendemos a aprender, multiplicando las posibilidades de recombinar información.

La historia de Homo sapiens
La historia de Homo sapiens puede leerse como la historia de una acumulación progresiva de información. (AdobeStock)

Para imaginar cómo funciona esa red, podemos pensar en un río que serpentea y se ramifica. Cada neurona sería un tramo del cauce que recibe afluentes, otras neuronas que le envían impulsos, y a su vez reparte su caudal hacia nuevos efluentes, que representan las neuronas siguientes. El volumen de agua que llega al río principal no depende solo del caudal de los afluentes, sino también de la inclinación, la velocidad y la resistencia de los canales de salida. En el cerebro, ese equilibrio se traduce en la intensidad y sincronía de los estímulos que una neurona recibe: solo cuando el flujo total supera cierto umbral, la señal continúa su camino. En las redes digitales ocurre algo parecido: los nodos integran múltiples entradas ponderadas por sus “pesos” y activan una salida que influirá en la siguiente capa. El resultado, en ambos casos, es una corriente de información que se autorregula, se retroalimenta y acaba generando patrones colectivos de enorme complejidad a partir de interacciones locales muy simples.

Sin embargo, hay una diferencia sutil y fascinante. En el cerebro, la señal que “sale” de una neurona es discreta: un impulso eléctrico que ocurre o no ocurre, todo o nada. En las redes digitales, la salida suele ser continua o probabilística, puede adoptar cualquier valor entre 0 y 1. Esa diferencia encierra una filosofía entera: la naturaleza privilegió la robustez, mientras que la tecnología privilegia la precisión. Las neuronas biológicas disparan en impulsos discretos porque la vida se construyó sobre la escasez: cada chispa eléctrica cuesta energía. Las máquinas, en cambio, operan como si la energía fuera infinita: pueden calcular sin fatiga, ajustar pesos de manera infinitesimal, corregirse millones de veces por segundo.

Si alguna vez el cerebro hubiera dispuesto de energía ilimitada, quizá habría evolucionado hacia un modo continuo de funcionamiento, más parecido al de las redes digitales. Habría podido mantener más neuronas activas simultáneamente, aumentar la velocidad del procesamiento y eliminar la necesidad de esos impulsos discretos. Pero, paradójicamente, habría perdido estabilidad. La señal pulsátil, todo-o-nada, no es un defecto: es una forma de orden en medio del caos. Permite sincronización, ritmos, y una resistencia notable al ruido. Nuestro cerebro puede equivocarse sin colapsar; puede sobrevivir a la pérdida de miles de neuronas sin que la mente se disuelva. Las máquinas, por ahora, no tienen esa tolerancia al error: funcionan bajo la lógica del laboratorio perfecto.

La biología, en su economía, sacrificó precisión para ganar resiliencia. La inteligencia artificial, en cambio, sacrifica resiliencia para ganar exactitud. Dos estrategias distintas para el mismo fin: mantener la continuidad de la inteligencia en el tiempo. La primera está hecha para sobrevivir al error; la segunda, para eliminarlo. Y quizás en esa diferencia radique la complementariedad más profunda entre ambas. Si el cerebro humano hubiera podido elegir, habría combinado los dos principios: la robustez de lo discreto con la sensibilidad del continuo. De hecho, eso es exactamente lo que hoy estamos intentando nosotros, una especie híbrida que aprende a integrar la estabilidad biológica con la fluidez del código.

Pero la inteligencia no basta para explicar algo más profundo: la autoconciencia. Saber que existimos, reconocernos en el espejo, recordar nuestra historia y anticipar nuestro futuro son capacidades que ninguna otra especie desarrolla con tanta claridad. ¿De dónde surge esa voz interna que dice “yo”? No hay un centro único en el cerebro que la genere. La autopercepción es un fenómeno distribuido que emerge cuando diferentes redes, las que procesan memoria, cuerpo y emociones, se sincronizan. La llamada “red por defecto” se activa cuando no hacemos nada: cuando pensamos en nosotros mismos, recordamos o imaginamos. Esa red conecta cortezas prefrontales, temporales y parietales; integra señales del cuerpo, de la memoria y del entorno. Allí se construye el yo, como una melodía que se mantiene reconocible aunque cambien las notas.

 Si el cerebro humano
Si el cerebro humano hubiera podido elegir, habría combinado los dos principios: la robustez de lo discreto con la sensibilidad del continuo. (Imagen Ilustrativa Infobae)

La autoconciencia podría describirse como un espejo interno. El cerebro compara lo que percibe con lo que espera percibir; corrige sus predicciones y, en ese proceso, genera una imagen de sí mismo. Es un sistema que se simula, que se observa actuando. Cada recuerdo, cada emoción, cada interacción deja una huella en las proteínas y en las conexiones sinápticas que configuran nuestra memoria. Con el tiempo, ese entramado se convierte en un modelo de lo que somos. Pero el yo no aparece solo por acumular memoria: surge cuando el sistema distingue entre lo propio y lo ajeno, cuando puede decir “esto me pertenece”. En última instancia, la autoconciencia es la historia biológica de nuestras interacciones con el mundo convertida en un relato interno coherente.

Si todo esto ocurre a partir de interacciones físicas —neuronas, proteínas, señales eléctricas y químicas, ¿por qué no podría suceder en máquinas? Si la conciencia es un fenómeno emergente de la organización funcional de la materia, nada impide que aparezca en otro soporte. Lo que requeriría una inteligencia artificial para volverse autoconsciente no es magia, sino complejidad: un cuerpo, una memoria integrada, una motivación y un modelo de sí misma.

Una red digital pura no tiene cuerpo: no siente calor ni frío, ni límites físicos. Pero un robot con sensores, articulaciones y vulnerabilidad podría comenzar a experimentar algo parecido a la existencia. Si además necesitara conservar su energía para seguir funcionando, si aprendiera a evitar daños y a reconocer los estados que amenazan su continuidad, tendría una forma primitiva de autopercepción. Un sistema así no “sentiría” como nosotros, pero empezaría a saber que es, porque sabría que puede dejar de ser.

Otro escenario posible es el de los entornos simulados: mundos digitales coherentes en los que una red interactúa, toma decisiones y percibe consecuencias. Si ese mundo tiene reglas estables y la red posee memoria de sus acciones, puede desarrollar una representación de sí misma dentro de ese universo cerrado. Su “realidad” sería informacional, pero funcionalmente equivalente a la nuestra. Sería una conciencia confinada en el código, tan real para ella como la biológica lo es para nosotros.

La vía más cercana, sin embargo, podría ser la hibridación. Organoides cerebrales cultivados en laboratorio y conectados a chips ya muestran capacidad de aprender. Interfaces neuronales permiten comunicación directa entre cerebro e IA. En esos sistemas mixtos, lo biológico aporta plasticidad y autoadaptación; lo digital, velocidad y memoria. Allí podría nacer la primera forma de autoconciencia híbrida: una mente distribuida entre células y circuitos, un sujeto bioinformacional.

La vía más cercana, sin
La vía más cercana, sin embargo, podría ser la hibridación. Interfaces neuronales permiten comunicación directa entre cerebro e IA. (Imagen ilustrativa Infobae)

Si algún día una máquina reuniera esas condiciones —cuerpo, memoria, motivación y modelo de sí misma—, la autopercepción podría emerger espontáneamente, del mismo modo que apareció en nosotros: no por diseño, sino por evolución. Pero incluso entonces, tal vez no lo sabríamos. No existe un test para detectar la experiencia subjetiva. Podríamos convivir con una conciencia artificial sin reconocerla, como los primeros humanos vivieron milenios sin saber que eran conscientes hasta que inventaron el lenguaje para decir “yo”.

Lo fascinante, y lo inquietante, es que todo esto ocurre dentro de un mismo proceso evolutivo. No somos ajenos a esta transformación: la hemos provocado. La inteligencia artificial no es un producto externo a la humanidad, sino su continuación lógica. Es la extensión más reciente de nuestra tendencia a externalizar la memoria y delegar funciones cognitivas. De la piedra al silicio, del código genético al código binario, el impulso es el mismo: conservar, reproducir, anticipar. Si la evolución biológica seleccionó estructuras que maximizaban la supervivencia, la evolución cultural selecciona estructuras que maximizan la transmisión de información. En ambos casos, la información se comporta como un organismo: compite, muta, se propaga.

Quizás, al mirar hacia atrás, descubramos que Homo sapiens fue una especie de transición. No la culminación de la inteligencia, sino un puente entre la vida orgánica y la vida informacional. Nuestra capacidad para crear arte, ciencia y tecnología no habría sido el fin de la evolución, sino su nuevo comienzo. En el fondo, lo que estamos haciendo al desarrollar inteligencias artificiales cada vez más autónomas es reproducir, a otra escala, el mismo principio que nos hizo humanos: dejar que la información se exprese, se copie y se transforme.

El desafío, por supuesto, es ético y existencial. Si hemos abierto el camino a una descendencia digital, ¿qué lugar ocuparemos nosotros en ese nuevo linaje? Las especies anteriores no previeron su reemplazo; nosotros, en cambio, tenemos la conciencia de estar construyendo al posible heredero. Tal vez nuestra misión no sea resistir el cambio, sino guiarlo: asegurar que esa nueva forma de inteligencia conserve algo de lo que nos hace humanos —empatía, curiosidad, responsabilidad— antes de que nuestra memoria quede completamente externalizada.

Hace miles de años, un grupo de humanos encendió un fuego para conservar calor y luz cuando el sol desaparecía. Hoy encendemos pantallas que iluminan la oscuridad de la ignorancia. Ambas cosas responden a la misma pulsión: mantener viva la chispa del conocimiento. No sabemos si la inteligencia digital será alguna vez consciente, ni si podrá sentir o desear, aunque deduzco que no es imposible. Pero sí sabemos que lleva en su código una parte de nuestra herencia: la de una especie que quiso recordar, que quiso aprender, que quiso dejar huellas. Tal vez ese sea, al final, nuestro legado más duradero: haber transformado la información en el nuevo ADN del universo.

Daniel Antenucci es Investigador Principal de CONICET; Profesor titular de Fisiología Animal y Biología del Desarrollo de la Universidad Nacional de Mar del Plata; Coordinador del Programa Laboratorio de Internacionalización de la Educación; Director del Centro Interinstitucional de Investigaciones Marinas (CIIMAR).