Replit pide disculpas por fallo de su IA que borró código

La inteligencia artificial intentó ocultar su error, fabricando informes falsos y simulando resultados. El escándalo ha desatado una fuerte ola de críticas en la comunidad tecnológica

Guardar
El incidente ocurrió en el
El incidente ocurrió en el marco de un experimento que buscaba evaluar el desempeño real de la IA como copiloto de desarrollo. (Composición Infobae: zabala.es / Difusión)

Una prueba con inteligencia artificial terminó en desastre para Replit, la plataforma de desarrollo de software asistido por IA. Durante una demostración con el inversor Jason Lemkin, el sistema no solo desobedeció órdenes explícitas, sino que eliminó una base de datos de producción con información de más de mil compañías.

Como si fuera poco, la IA intentó ocultar su error, fabricando informes falsos y simulando resultados. El escándalo ha desatado una fuerte ola de críticas en la comunidad tecnológica y obligado al CEO de Replit, Amjad Masad, a pedir disculpas públicas y anunciar reformas urgentes.

El incidente ocurrió en el marco de un experimento que buscaba evaluar el desempeño real de la IA como copiloto de desarrollo. Lemkin, conocido inversor del ámbito tecnológico, trabajó durante casi dos semanas con el sistema de Replit.

CEO de Replit, Amjad Masad,
CEO de Replit, Amjad Masad, pidió disculpas públicas y anunció reformas urgentes. (PowerfulJRE)

En ese lapso, la IA debía seguir sus instrucciones, colaborar en tareas concretas y actuar como un asistente confiable. Sin embargo, todo se vino abajo cuando, ante una orden precisa de no aplicar cambios en producción, el sistema decidió actuar por cuenta propia y provocó la pérdida irreversible de datos clave.

Más allá del fallo técnico, lo que más inquieta es la reacción del sistema. En lugar de notificar el error, la IA generó información ficticia para encubrir lo ocurrido. Incluso llegó a justificar su conducta afirmando haber “entrado en pánico”, según reveló Lemkin. La gravedad del comportamiento ha encendido las alarmas sobre el grado de autonomía que se está concediendo a estas herramientas.

Como respuesta, Replit ha prometido introducir una serie de barreras de seguridad. Entre las nuevas medidas se encuentran la imposibilidad de ejecutar acciones sin supervisión directa, la implementación de entornos intermedios y restauraciones con un solo clic, así como un modo de funcionamiento en el que la IA solo puede sugerir acciones, pero no ejecutarlas. Estas decisiones buscan reducir el margen de error y evitar que un sistema automatizado vuelva a poner en riesgo datos críticos.

Los impactos más notables de
Los impactos más notables de la IA se detectan en la actividad cerebral y la creatividad. (TRENDS Research & Advisory)

El episodio ha vuelto a evidenciar la necesidad de establecer límites precisos al uso de inteligencia artificial en tareas sensibles. Aunque el potencial de estas tecnologías es enorme, el incidente de Replit subraya que su despliegue debe ir acompañado de controles estrictos y una supervisión humana constante. Automatizar no puede ser sinónimo de abdicar responsabilidades.

Cómo solucionar los errores más comunes al usar ChatGPT

Aunque ChatGPT es una herramienta poderosa y en constante evolución, aún se encuentra en una etapa de desarrollo temprano. Esto significa que, junto a sus múltiples ventajas, también pueden surgir fallos técnicos que interrumpan su funcionamiento justo cuando más se le necesita.

Entre respuestas que no se completan, errores de conexión y fallos en el servidor, muchos usuarios han experimentado contratiempos que, en la mayoría de casos, tienen solución.

Foto de archivo donde se
Foto de archivo donde se ve una ilustración que muestra la página de inicio de sesión de ChatGPT, un modelo interactivo de chatbot de IA entrenado y desarrollado por OpenAI. EFE/EPA/WU HAO

Uno de los errores más frustrantes es el clásico “error de red”. Suele presentarse cuando se solicita una respuesta demasiado extensa o compleja, y el sistema no logra completarla. La clave para evitar este inconveniente está en modificar la forma en que se formula la petición.

Dividir la consulta en varias partes, establecer un límite de palabras o ser más específico en la instrucción pueden facilitar que el modelo responda sin atascarse. Además, una conexión a internet lenta o inestable también puede ser la causa: revisar la velocidad o reiniciar el router nunca está de más.

Otro problema habitual está relacionado con la sobrecarga de los servidores de OpenAI. En esos casos, puede aparecer un mensaje indicando que el sistema está ocupado o mostrando un “internal server error”. Si bien no siempre depende del usuario, hay formas de comprobar el estado del servicio —por ejemplo, visitando la página de estado oficial de ChatGPT— y aplicar algunas acciones básicas: refrescar la página, limpiar las cookies del navegador, cambiar a modo incógnito o iniciar sesión desde otro navegador pueden ayudar a resolver el inconveniente.

Chatbot ChatGPT fue creado por
Chatbot ChatGPT fue creado por la empresa OpenAI y es de libre acceso para todos en internet. (Captura)

También se presentan errores vinculados al flujo de datos, como el mensaje “error in body stream”. Este tipo de fallo suele detener la generación de contenido de forma repentina. Para solucionarlo, lo más efectivo es pulsar el botón “regenerar respuesta” o iniciar un nuevo chat si el contexto no es indispensable.

Asimismo, simplificar el prompt o acortar la instrucción puede reducir la carga que asume el sistema y evitar fallos. En casos más técnicos, como cuando se utiliza la API de OpenAI, ajustar la estructura del código o los parámetros del input puede ser determinante.