OpenAI ya no puede usar Claude tras ser acusado por Anthropic de uso indebido

La empresa detrás del modelo Claude acusa a OpenAI de utilizar su tecnología para desarrollar herramientas competidoras, en medio del avance hacia GPT-5

Guardar
Anthropic suspendió a OpenAI el
Anthropic suspendió a OpenAI el ingreso a su API, esto tras descubrir que estaban haciendo pruebas indebidas. (Foto: Composición)

Anthropic, la empresa responsable del modelo de inteligencia artificial Claude, revocó el acceso de OpenAI a su API. De acuerdo con fuentes de WIRED, la compañía tomó esta decisión luego de que se detectara un supuesto uso indebido por parte de OpenAI, lo que constituiría una violación directa de los términos de servicio establecidos por Anthropic.

La medida se dio a conocer el martes, en medio de un contexto de competencia creciente entre grandes desarrolladores de inteligencia artificial, y justo cuando OpenAI se prepara para lanzar su próximo modelo, GPT-5.

Uso indebido de herramientas internas

Según WIRED, OpenAI habría utilizado el acceso de desarrollador (API) a Claude no a través de su interfaz de chat pública, sino mediante integración con herramientas internas de evaluación.

OpenAI ya no tendrá acceso
OpenAI ya no tendrá acceso al modo desarrollador de Claude. REUTERS/Dado Ruvic/Illustration/Foto de archivo

Esta práctica les permitió realizar pruebas sobre las capacidades del modelo en tareas como programación, redacción creativa y detección de contenidos sensibles, incluyendo temáticas como abuso infantil, autolesiones o difamación.

La finalidad de estas pruebas habría sido comparar directamente el rendimiento de Claude frente a sus propios modelos, como GPT-4 y el próximo GPT-5, especialmente en áreas de codificación, donde Claude Code ha ganado popularidad.

Sin embargo, esta práctica fue considerada por Anthropic como una violación a sus políticas de uso. Según los términos comerciales de la empresa, está prohibido utilizar sus servicios para desarrollar productos de la competencia, entrenar modelos rivales o duplicar sus tecnologías mediante ingeniería inversa.

Anthropic canceló a OpenAI su
Anthropic canceló a OpenAI su acceso a la API de Claude. REUTERS/Dado Ruvic/Illustration/File Photo

Declaraciones cruzadas

Christopher Nulty, portavoz de Anthropic, confirmó la medida a WIRED y señaló: “Claude Code se ha convertido en la opción preferida de los programadores de todo el mundo, por lo que no fue una sorpresa saber que el propio personal técnico de OpenAI también estaba utilizando nuestras herramientas de programación antes del lanzamiento de GPT-5. Desafortunadamente, esto es una violación directa de nuestros términos de servicio”.

Por su parte, Hannah Wong, directora de comunicaciones de OpenAI, reconoció el corte de acceso, pero expresó su desacuerdo con la medida. “Es un estándar de la industria evaluar otros sistemas de IA para medir el progreso y mejorar la seguridad. Aunque respetamos la decisión de Anthropic de cortar nuestro acceso a la API, es decepcionante, teniendo en cuenta que nuestra API sigue estando disponible para ellos”, declaró.

A pesar de la restricción, Anthropic señaló que OpenAI seguiría teniendo acceso limitado con fines de evaluación comparativa y de seguridad, aunque no precisó de qué forma se mantendría dicho acceso ni bajo qué condiciones específicas.

Anthropic cancela acceso a OpenAI
Anthropic cancela acceso a OpenAI de su API de Claude tras darse cuenta de que estaban haciendo un uso indebido.

Un patrón en la industria

La decisión de Anthropic no es un caso aislado. Grandes compañías tecnológicas han tomado medidas similares en el pasado para limitar el acceso de competidores a sus plataformas.

Por ejemplo, Meta (antes Facebook) bloqueó a Vine, propiedad de Twitter, generando acusaciones de comportamiento anticompetitivo. Más recientemente, Salesforce limitó el acceso a ciertas funciones de Slack a empresas rivales. Y en julio, la propia Anthropic restringió el acceso de la startup de IA Windsurf, luego de rumores de que OpenAI buscaba adquirirla. Finalmente, ese acuerdo no se concretó.

En declaraciones a TechCrunch, Jared Kaplan, director científico de Anthropic, comentó sobre esa situación: “Creo que sería extraño que vendiéramos Claude a OpenAI”.

Claude es un asistente de
Claude es un asistente de IA generativa.

Cambios recientes en Claude Code

Un día antes de la revocación del acceso a OpenAI, Anthropic había anunciado nuevos límites de uso en Claude Code, su herramienta de IA especializada en programación. La empresa justificó la medida por el uso creciente del sistema y por detectar posibles infracciones a sus políticas de uso.

La creciente demanda y las tensiones entre compañías reflejan el momento clave que atraviesa la industria de la inteligencia artificial. Con nuevos modelos en desarrollo y una competencia cada vez más intensa, el acceso a herramientas avanzadas como Claude o GPT se ha vuelto un factor estratégico tanto para la innovación como para la protección comercial.