- LA SEÑAL
- Posts
- La disputa entre Anthropic y el Pentágono escala de forma alarmante
La disputa entre Anthropic y el Pentágono escala de forma alarmante
ADEMÁS: OpenAI añade el 'Modo Bloqueo' a ChatGPT
El Pentágono podría etiquetar próximamente a Anthropic como un "riesgo en la cadena de suministro" como respuesta a las restricciones que la compañía impone sobre el uso militar de su IA.
La disputa, que no parece sino agravarse con el tiempo, pone de relieve una tensión más profunda que está definiendo la era de la IA: ¿quién controla cómo se despliegan los modelos más avanzados en operaciones militares, los laboratorios que los crean o los gobiernos que los utilizan?
When Is the Right Time to Retire?
Determining when to retire is one of life’s biggest decisions, and the right time depends on your personal vision for the future. Have you considered what your retirement will look like, how long your money needs to last and what your expenses will be? Answering these questions is the first step toward building a successful retirement plan.
Our guide, When to Retire: A Quick and Easy Planning Guide, walks you through these critical steps. Learn ways to define your goals and align your investment strategy to meet them. If you have $1,000,000 or more saved, download your free guide to start planning for the retirement you’ve worked for.
La disputa entre Anthropic y el Pentágono se intensifica por el uso de la IA
OpenAI añade el 'Modo Bloqueo' a ChatGPT
Alibaba se acerca a la vanguardia con Qwen-3.5 de código abierto

Según informes, el Pentágono está "cerca" de romper relaciones con Anthropic y de designar a la compañía como un "riesgo en la cadena de suministro", una etiqueta habitualmente reservada para adversarios extranjeros, debido a las restricciones que impone sobre el uso de Claude por parte del ejército.
Los detalles:
Si se otorgara dicha designación, todos los contratistas de defensa estadounidenses se verían obligados a cortar lazos con Anthropic, lo que supondría un golpe severo para el negocio de la compañía.
Los responsables de defensa exigen el derecho a utilizar la IA para "todos los fines legales", mientras que Anthropic se mantiene firme frente a la concesión de permisos tan amplios.
Según Axios, la empresa está dispuesta a flexibilizar algunas restricciones, pero quiere garantizar que su IA no se utilice para espiar a ciudadanos estadounidenses ni para desarrollar armas autónomas.
Claude es actualmente la única IA presente en los sistemas clasificados del Pentágono, y según se informó, también fue empleada a través de Palantir para la captura de Nicolás Maduro en enero.
Por qué importa:
Los expertos llevan tiempo advirtiendo sobre el uso sin control de la IA en conflictos armados, y este enfrentamiento representa un momento relevante que refleja la creciente fricción entre las políticas de uso responsable de las empresas y las exigencias operativas del ejército. Solo el tiempo dirá qué lado acaba definiendo las reglas del juego de la IA en materia de seguridad nacional.

OpenAI acaba de presentar el "Modo Bloqueo" en ChatGPT, junto con nuevas etiquetas de Riesgo Elevado, como parte de un esfuerzo por proteger a los "usuarios con altas exigencias de seguridad" frente a amenazas como la inyección de prompts, una técnica mediante la cual se engaña a la IA para que filtre datos.
Los detalles:
El Modo Bloqueo es una configuración opcional que deshabilita de forma determinista ciertas herramientas y funciones de ChatGPT que un atacante podría explotar.
Entre las protecciones específicas del modo se incluye la limitación de la navegación web a contenido en caché, garantizando que ninguna solicitud de red en tiempo real salga del entorno de OpenAI.
Los administradores del espacio de trabajo de ChatGPT pueden activar el modo, con la posibilidad de incluir en una lista blanca aplicaciones o acciones concretas que permanezcan accesibles incluso con el bloqueo activo.
La compañía también añade nuevas etiquetas de "Riesgo Elevado" que aparecerán en ChatGPT, Atlas y Codex para señalar funciones que puedan introducir cualquier nivel de riesgo.
Por qué importa:
A medida que los modelos de IA pasan de ser simples chatbots a agentes capaces de navegar por internet, conectarse a aplicaciones y ejecutar tareas complejas, las implicaciones en materia de seguridad son mayores que nunca. Esta actualización reconoce ese cambio y el hecho de que los "bloqueos duros" de carácter determinista pueden ser la única forma de abordar ciertos riesgos de la IA.
Accede a contenido exclusivo cada día.
En la versión PRO de esta newsletter recibes un reporte diario con las noticias más relevantes, herramientas que aún no conoces, y recursos exclusivos: desde cursos hasta guías prácticas para instalar modelos de IA en tu ordenador.

Alibaba ha lanzado a través de Qwen el modelo Qwen3.5-397B-A17B, un modelo de lenguaje visual de pesos abiertos con una "arquitectura híbrida" que ofrece enormes mejoras en inferencia y rivaliza con gigantes propietarios como GPT-5.2 de OpenAI y Gemini 3 Pro de Google.
Los detalles:
Qwen-3.5 utiliza un diseño MoE disperso, activando únicamente 17.000 millones de parámetros de un total de 397.000 millones por cada consulta, logrando un equilibrio entre capacidades avanzadas y baja latencia.
El modelo se sitúa cerca de los líderes del sector en términos generales, e incluso los supera en ámbitos como la búsqueda agéntica, el reconocimiento de documentos y el seguimiento de instrucciones.
Alibaba afirma que es un 60% más barato de utilizar y al menos 8 veces más eficiente procesando grandes cargas de trabajo que su predecesor inmediato, Qwen3-Max.
El lanzamiento está orientado a gestionar el razonamiento continuo y multimodal que requieren los agentes, aunque por el momento no parece destacar especialmente en tareas más mundanas.
Por qué importa:
Los laboratorios chinos están en un gran momento, y con Qwen3.5 combinando un rendimiento cercano a la vanguardia, costes un 60% menores y pesos abiertos, la carrera se está desplazando claramente hacia la eficiencia y la escalabilidad. Si este impulso continúa, el equilibrio en la IA podría depender menos del tamaño bruto de los modelos y más de quién sea capaz de ofrecer el mayor rendimiento al menor coste.


