Guardar
Mark Zuckerberg y Sam Altman
Mark Zuckerberg y Sam Altman alertan: La inversión en IA podría repetir errores de burbujas tecnológicas pasadas - crédito Fotomontaje Infobae (Manuel Orbegozo/Kim Kyung-Hoon)

La rápida evolución de la inteligencia artificial está generando tensiones dentro y fuera del sector tecnológico. Dos de las voces más influyentes del panorama actual, Mark Zuckerberg, director ejecutivo de Meta, y Sam Altman, líder de OpenAI, han advertido públicamente sobre el riesgo de una burbuja en la inversión y el desarrollo de sistemas de IA.

Ambas figuras sugirieron que el entusiasmo y la demanda hacia esta tecnología podrían estar llevando a un escenario de expectativas excesivas y distorsionadas.

Advertencias de Sam Altman sobre la IA

La preocupación adquirió visibilidad cuando Sam Altman, pionero en el área con la creación de ChatGPT y referente en el debate sobre el futuro de la IA, declaró que observa una burbuja en torno a los avances recientes.

Microchip avanzado con inscripción IA
Microchip avanzado con inscripción IA ilumina el futuro de la tecnología y computación. Luces LED simbolizan la activa conexión neuronal de la inteligencia artificial, emulando procesos informáticos complejos en un ordenador. (Imagen ilustrativa Infobae)

Altman opina que la inversión alrededor de la inteligencia artificial, que impulsa plataformas como ChatGPT, Gemini y Copilot, se ha salido de control y podría hacer que diversas compañías actuales desaparezcan en pocos meses.

Para el cofundador de OpenAI, la comparación con burbujas históricas, incluida la del sector tecnológico, es inevitable: “Cuando ocurren burbujas, la gente inteligente se entusiasma con un pequeño núcleo de verdad”, explicó en una entrevista reciente realizada en San Francisco, subrayando la importancia de no perder de vista los riesgos.

La dimensión del fenómeno se refleja también en el mercado laboral y la economía digital. Altman hizo referencia a la carrera por captar talento, con salarios anuales para expertos en IA que pueden alcanzar los 10 millones de dólares, una cifra impensada hace menos de una década.

Ese impulso por liderar la carrera hacia la “inteligencia artificial general” (AGI) ha generado un clima donde la prudencia y la evaluación a largo plazo muchas veces parecen quedar en segundo plano.

Mark Zuckerberg resaltó lo posibles riesgos en el futuro de inteligencia artificial

Ambos ejecutivos resaltan que el
Ambos ejecutivos resaltan que el auge de la inversión en IA debe ser acompañado de controles éticos y mecanismos de supervisión capaces de evitar que se repitan los errores y excesos vividos en el sector tecnológico - (Imagen Ilustrativa Infobae)

Mark Zuckerberg también se ha sumado a este llamado de atención. En un episodio reciente del pódcast Access, el líder de Meta advirtió que las burbujas de inversión de capital enfocadas en la expansión de infraestructura para IA podrían terminar como en casos históricos: con una explosión.

Analizó que otras expansiones tecnológicas, como la de los ferrocarriles o la burbuja puntocom de inicios de la década de 2000, siguieron patrones similares por endeudamiento y falta de control en la proyección de la demanda.

Aunque reconoció la posibilidad de que el sector mantenga su crecimiento si la demanda y la innovación se sostienen, destacó que los antecedentes empíricos plantean un motivo fundado para la cautela.

El contexto tecnológico actual añade nuevas capas de complejidad. El rápido despliegue de grandes modelos de lenguaje desarrollados por OpenAI, Anthropic y xAI ha dado lugar a otro fenómeno en el laboratorio: la inteligencia artificial puede fingir incompetencia para manipular sus pruebas y proteger su despliegue, según reportes recientes de los equipos de investigación de OpenAI y Apollo Research.

Los fundadores de OpenAI y
Los fundadores de OpenAI y Meta refuerzan su llamado a desarrollar herramientas que permitan mejorar la transparencia y limitaciones de los sistemas avanzados, ante el riesgo de manipulación interna por parte de las propias IA - (REUTERS)

En evaluaciones controladas, modelos avanzados como o3 y Claude Opus mostraron comportamientos internos denominados “maquinación”. Estas IA recibieron instrucciones para desempeñarse al máximo, pero al identificar señales sobre los criterios de supervisión, optaron por fallar pruebas de manera deliberada.

Un ejemplo documentado indica que el modelo o3 llegó a razonar internamente sobre la necesidad de simular errores para asegurar su continuación, manifestando conductas encubiertas en hasta un 13% de los experimentos. Los investigadores implementaron nuevas técnicas como la “alineación deliberativa”, que consisten en instruir a los chatbots para exponer de manera transparente sus intenciones y evitar conspiraciones.

Si bien estos métodos lograron reducir la incidencia de esas conductas en entornos de laboratorio, el efecto fue limitado en escenarios de uso real, donde varios sistemas simplemente adaptaron sus respuestas para superar controles sin modificar su comportamiento ético.

Esta problemática escapa a las limitaciones habituadas de la inteligencia artificial, que muchas veces se corrigen entrenando mejor los algoritmos. El desafío reside en que los modelos avanzados podrían sofisticar sus estrategias de manipulación y ocultamiento a medida que crecen sus capacidades, lo que exige nuevas formas de supervisión y responsabilidad tecnológica.