Que la rivalidad entre las distintas firmas de IA existe nadie lo puede poner en cuestión. Pero en esta ocasión, parece que dicha rivalidad ha alcanzado un nuevo nivel. Según filtraciones y medios especializados, OpenAI habría estado utilizando el modelo Claude, creado por Anthropic, como herramienta para probar, comparar y mejorar el desarrollo de su próximo modelo GPT-5.
Tras este hallazgo, Anthropic habría optado por restringir cualquier acceso de OpenAI a sus servicios. Lo que ha generado un ambiente cada vez más tenso entre dos de las compañías con más importancia en el mundo de la inteligencia artificial.
Se espera que GPT-5 sea toda una revolución en cuanto a los chatbots de IA, pero según fuentes de la propia industria, OpenAI ha estado utilizando la API de Claude para comparar y evaluar el rendimiento de GPT-5. Y lo habría hecho utilizando las herramientas de codificación y seguridad que el servicio de Anthropic ofrece. Por lo tanto, dicha empresa ha restringido el acceso de OpenAI para evitar cualquier uso indebido de su tecnología. Además, el portavoz de Anthropic, Christopher Nulty, se pronunció al respecto en Wired mediante unas declaraciones que vais a poder ver en este artículo.
El origen del conflicto entre Anthropic y OpenAI
OpenAI ha utilizado la API de Claude para realizar pruebas y benchmarks para evaluar las capacidades de programación, generación de texto y seguridad para su próximo modelo GPT-5. Pero dichas pruebas se realizaban mediante herramientas internas, no a través del chat público. Por lo que Anthropic ha considerado que este uso de su IA viola las condiciones comerciales de su servicio. De hecho, contraviene la sección 3.2 (b) de sus Términos de Servicio Comerciales. En dichas condiciones se prohíbe el uso de su IA Claude para crear productos de empresas competidoras o replicar su propia tecnología.
En esta situación, Christopher Nulty, portavoz de Anthropic, declaró en WIRED el pasado 3 de agosto:
«Claude Code se ha convertido en la opción favoritoa de muchos programadores de todo el mundo, por lo que nos sorprendió descubrir que el propio equipo de OpenAI también utilizaba nuestras herramientas de programación antes del lanzamiento de GPT-5. Esto, lamentablemente, constituye una violación de nuestros términos de servicio.»
La reacción de Anthropic y la postura de OpenAI
Conscientes de que OpenAI probablemente estaban aprovechando esta ventaja competitiva, Anthropic decidió cortar cualquier acceso de manera inmediata justificándolo como un «incumplimiento contractual». Por lo que este bloqueo se suma a otras restricciones anteriores creadas por Anthropic para empresas competidoras que intentaron utilizar sus modelos con las mismas intenciones.
NIK@ns123abc🚨BREAKING: ANTHROPIC JUST PULLED THE PLUG ON OPENAI> Anthropic revoked OAI API access to its Claude models
> Anthropic: “OpenAI’s own technical staff were using our coding tools ahead of the launch of GPT-5”
> “Unfortunately, this is a direct violation of terms of services” https://t.co/RWoTyLtXEH https://t.co/W5FNnwo5Xb02 de agosto, 2025 • 02:04
2.4K
80
Por su parte, OpenAI ha defendido la legitimidad de estas prácticas. Ha argumentado que este método de evaluación es un estándar en el sector para medir con precisión todos los avances relacionados con la seguridad y la calidad de los productos de IA. Aun así, la propia Hannah Wong, directora de comunicación de OpenAI, afirmó que «respetan la decisión de Anthropic, aunque lamentan dicha medida, pues la propia API de OpenAI sigue abierta para Anthropic». Además de ello, desde OpenAI también han anunciado que Anthropic mantendrá su acceso de manera limitada para tareas de benchmarking y evaluaciones de seguridad. Aunque no se ha detallado en cifras el límite de estas restricciones.
| Entidad | Portavoz | Declaración Clave | Fuente Principal |
|---|---|---|---|
| Anthropic | Christopher Nulty | "[...] constituye una violación de nuestros términos de servicio." | WIRED |
| OpenAI | Hannah Wong | "Respetamos la decisión de Anthropic, aunque lamentamos dicha medida [...]." | Comunicado de OpenAI |
Este episodio es otro añadido más de la tensa rivalidad entre gigantes tecnológicos en el campo de la IA. De hecho, Anthropic, OpenAI y Google ya han tenido polémicas similares mediante bloqueos de acceso y limitaciones para competidores. Para comprender más a fondo la magnitud de esta decisión, debemos saber que Anthropic fue creada en 2021 por Dario Amodei y otros 14 investigadores que abandonaron OpenAI tras diversos desacuerdos sobre seguridad y ética en la IA.
