¿Son los chatbots de inteligencia artificial tecnologías revolucionarias o loros que repiten errores?

El científico Christopher Summerfield presenta una historia intelectual de la investigación en inteligencia artificial y propone respuestas a algunas de las grandes incógnitas

Guardar
El libro del día: "These
El libro del día: "These Strange New Minds: How AI Learned to Talk and What it Means", de Christopher Summerfield

¿Son los chatbots de inteligencia artificial tecnologías revolucionarias que anuncian el amanecer de una nueva era de máquinas pensantes? ¿O son solo “loros estocásticos”, como lo expresó memorablemente la lingüista Emily M. Bender, imitadores digitales programados para fingir inteligencia pero incapaces de poseerla?

Un nuevo libro brillante de un neurocientífico cognitivo de Oxford aborda esa pregunta. Su respuesta resulta ser menos interesante que el animado recorrido que conduce hasta ella.

En These Strange New Minds: How AI Learned to Talk and What it Means (Estas nuevas y extrañas mentes: cómo la IA aprendió a hablar y lo que significa), Christopher Summerfield traza una erudita historia intelectual de la investigación en inteligencia artificial, desde las reflexiones de Alan Turing sobre una “máquina pensante” hasta los avanzados “modelos de lenguaje grande” de hoy en día. Entretejiendo coloridas anécdotas de la historia y la cultura pop con hilos de filosofía, lingüística y ciencias de la computación, explica cómo funcionan los modelos más recientes al abordar primero lo que no funcionó durante el camino, y por qué. Es un enfoque que tanto desmitifica ChatGPT como aclara lo que lo convirtió en un avance tan significativo.

De forma paralela a esta historia iluminadora está el argumento de Summerfield de que los modelos de lenguaje grande representan mucho más que un simple truco tecnológico sofisticado. Aunque concede que no piensan de la misma manera que las personas, sostiene que lo que hacen ya se parece más al pensamiento de lo que los escépticos admiten, y que solo seguirán volviéndose más inteligentes.

Alan Turing
Alan Turing

Eso podría parecer obvio para algunos tanto como ridículo para otros. Así de polarizado se ha convertido el discurso sobre la inteligencia artificial en nuestro entorno informativo, casi tanto como la política. Los influencers en línea se han dividido en campos que incluyen a los “aceleracionistas” idealistas, los “catastrofistas” estilo Casandra y los escépticos que desestiman la tecnología como el equivalente moderno del aceite de serpiente.

Summerfield se esfuerza por distanciarse de cada una de estas facciones. Lamenta que, con demasiada frecuencia, “la cuestión académica de cómo funciona realmente la IA y cuál podría ser su impacto potencial futuro sea un daño colateral” en una cansina disputa sectaria. Su libro busca remediar eso, adoptando un tono más profesoral que polémico. En su mejor momento, “Estas nuevas mentes” exhibe una curiosidad lúcida tanto sobre las capacidades como sobre las limitaciones de la inteligencia artificial, algo que está subrepresentado en las disputas de las redes sociales.

Aun así, tiene un punto de vista. El laboratorio de Summerfield en Oxford estudia el cerebro humano a través de una lente computacional, examinando los mecanismos neuronales que dan forma a cómo aprendemos, predecimos y percibimos el mundo. También es científico de investigación en DeepMind, el laboratorio de inteligencia artificial con sede en Londres y propiedad de Google, que creó un motor de juegos de estrategia imbatible y una técnica ganadora del Premio Nobel para predecir la estructura de proteínas. Cuenta al CEO de DeepMind y destacado experto en inteligencia artificial, Demis Hassabis, como amigo y colaborador, y en 2024 fue designado director de investigación del Instituto Británico de Seguridad en IA, que trabaja en formas de mitigar los peligros que la tecnología representa para la sociedad. Con ese tipo de implicación, probablemente no necesitas un modelo de predicción muy ajustado para adivinar que Summerfield ve a los modelos de lenguaje como algo más potente que un loro.

El avance de la inteligencia
El avance de la inteligencia artificial está transformando las relaciones humanas (Imagen Ilustrativa Infobae)

Summerfield comienza con una observación irónica que corre el riesgo de socavar su tesis. Observa que los sistemas informáticos con “inteligencia general artificial” han estado “a la vuelta de la esquina durante los últimos cincuenta años”. Pero mientras que la predicción del científico informático Marvin Minsky en 1970 de que pronto tendríamos una máquina capaz de leer a Shakespeare y cambiar el aceite de un coche tuvo un desempeño pobre, escribe Summerfield, la apuesta del CEO de OpenAI, Sam Altman, en 2021 de que veremos chatbots en una década que pueden desempeñarse como expertos en cualquier ámbito “podría ser acertada”.

Lo que sigue es un recorrido entretenido, aunque a veces técnico, por los cincuenta años intermedios llenos de esperanzas, fracasos y extravagantes callejones sin salida en la búsqueda de la informática por conjurar al esquivo genio artificial. Las ideas de peso se alivian con analogías que recurren a la historia y la cultura pop, desde “Esperando a Godot” hasta los Federalist Papers y el desastre marítimo británico de 1859.

El salto clave, argumenta Summerfield, fue pasar de intentar construir inteligencia artificial basada en modelos lógicos de cómo funciona el mundo (el enfoque “racionalista”) a diseñar sistemas que aprenden al ingerir cantidades masivas de datos desordenados, de los cuales pueden extrapolar patrones (el enfoque “empirista”). En el caso de los modelos lingüísticos, esto significó abandonar el proyecto de Noam Chomsky de formalizar una “gramática universal” y, en cambio, simplemente alimentar con prácticamente todo el texto publicado en internet algoritmos de predicción cada vez más sofisticados.

Si eso suena como una receta para un chatbot que solo une palabras sin tener idea de lo que está diciendo, entonces vas por buen camino para entender la crítica de los “loros estocásticos”. La idea es que los chatbots de inteligencia artificial producen únicamente una ilusión de inteligencia y personalidad, una ilusión que corre el riesgo de engañar a las personas para que confíen ciegamente en lo que dicen o incluso formen relaciones con ellos.

Noam Chomsky (EFE/Francisco Guasco)
Noam Chomsky (EFE/Francisco Guasco)

Summerfield está de acuerdo en que los chatbots son motores de predicción propensos a errores que difieren de los humanos en formas cruciales. Carecen de sentimientos, amigos, planes, un cuerpo. No son conscientes, ni deberíamos temer que lo sean próximamente, y mucho menos que se vuelvan contra nosotros y tomen el control del mundo. Dicho esto, cree que los cerebros humanos también son más similares a los modelos lingüísticos de lo que los humanistas podrían darse cuenta; es decir, también son motores de predicción propensos a errores que hacen inferencias imperfectas a partir de datos experimentales desordenados.

Y lo que tienen los chatbots, sostiene, es más potente de lo que los escépticos aprecian. Su capacidad para disertar sobre casi cualquier tema y mantener conversaciones enteras y coherentes revela no solo un dominio de qué palabras van juntas, sino también de qué ideas van juntas. Eso se debe a que, escribe Summerfield, la estructura del lenguaje se mapea con la estructura de la realidad tal como la entendemos. En otras palabras, predecir qué decir en un rango tan amplio de escenarios requiere un modelo no solo de cómo funciona el lenguaje, sino de cómo funciona el mundo.

Summerfield cree que esta correspondencia entre el lenguaje y la realidad explica lo que los investigadores de inteligencia artificial llaman, con cierto respeto, “emergencia”: la capacidad de los modelos lingüísticos para responder preguntas, resolver problemas o crear obras de arte que no aparecen en ningún lugar de sus datos de entrenamiento.

Sugiere que eso seguirá ocurriendo de maneras sorprendentemente nuevas a medida que los modelos de inteligencia artificial incorporen audio y video, se diversifiquen en tareas especializadas y comiencen a interactuar entre sí. Los resultados no siempre serán agradables: si un grupo de bots bursátiles tontos pudo eliminar temporalmente 1 billón de dólares (aproximadamente 938.000 millones de euros) en valor durante el “flash crash” de 2010, advierte Summerfield, imagina el tipo de problemas en los que podría meterse una manada de agentes de inteligencia artificial mucho más sofisticados.

Si pensamos en los chatbots
Si pensamos en los chatbots como inteligentes o tontos no es una cuestión puramente académica (Imagen Ilustrativa Infobae)

Aunque Summerfield se esfuerza por parecer imparcial, el libro pasa por alto algunos de los argumentos clave de los críticos de la inteligencia artificial. Sea cual sea la chispa de inteligencia que puedan mostrar los chatbots, su tendencia a afirmar con convicción datos erróneos no es solo un fallo ocasional: es una característica de cómo funcionan, al menos por ahora. El hecho de que las empresas de inteligencia artificial estén encontrando formas de minimizar estas “alucinaciones” (que, como señala Summerfield, más apropiadamente deberían llamarse “confabulaciones”) puede representar un progreso. Pero también corre el riesgo de generar una confianza infundada en los usuarios, aumentando las consecuencias cuando inevitablemente los lleva por mal camino.

Reconoce que es un problema que los modelos lingüísticos no sepan lo que no saben. Pero no aborda plenamente las ramificaciones de un sistema que puede escupir falsedades, montajes y propaganda convincentes a escala, bajo demanda, sin la capacidad de reconocer que eso es lo que está haciendo. ¿De qué sirve una mente que no puede evitar ser un idiota útil?

Si pensamos en los chatbots como inteligentes o tontos no es una cuestión puramente académica. En un momento en que las grandes empresas tecnológicas están fuertemente incentivadas a exagerar los poderes de los modelos de inteligencia artificial, y las empresas están incentivadas a adoptarlos, a menudo a expensas de los humanos cuyo trabajo se utilizó para entrenarlos, sobreestimar su inteligencia corre el riesgo de causar más daño que subestimarla.

Afortunadamente, no es necesario estar de acuerdo con las conclusiones de Summerfield para encontrar su libro iluminador. Aquellos que busquen argumentos acalorados sobre la valencia moral de la inteligencia artificial pueden encontrarlos fácilmente en las redes sociales. Para quienes deseen comprender mejor su funcionamiento, “Estas nuevas y extrañas mentes” es un buen punto de partida.