- LA SEÑAL
- Posts
- Los modelos de lenguaje muestran indicios de inteligencia estratégica
Los modelos de lenguaje muestran indicios de inteligencia estratégica
ADEMÁS: Una herramienta de programación con IA sufre cancelaciones masivas
Un grupo de investigadores ha descubierto una forma de desvelar las personalidades ocultas de los modelos de IA… y solo necesitaron un clásico experimento de teoría de juegos.
Al analizar cómo distintos modelos de lenguaje respondían en 140.000 partidas del Dilema del Prisionero, detectaron que cada uno desarrollaba estrategias propias y diferenciadas — lo que actúa como una especie de "huella" que indica que estos modelos hacen bastante más que simplemente repetir patrones.
Los LLMs muestran indicios de inteligencia estratégica
La herramienta de programación con IA Cursor sufre una oleada de cancelaciones
Investigadores manipulan revisiones por pares con indicaciones ocultas
4 nuevas herramientas de IA
HR is lonely. It doesn’t have to be.
The best HR advice comes from people who’ve been in the trenches.
That’s what this newsletter delivers.
I Hate it Here is your insider’s guide to surviving and thriving in HR, from someone who’s been there. It’s not about theory or buzzwords — it’s about practical, real-world advice for navigating everything from tricky managers to messy policies.
Every newsletter is written by Hebba Youssef — a Chief People Officer who’s seen it all and is here to share what actually works (and what doesn’t). We’re talking real talk, real strategies, and real support — all with a side of humor to keep you sane.
Because HR shouldn’t feel like a thankless job. And you shouldn’t feel alone in it.

Un grupo de investigadores ha puesto a prueba la capacidad de los modelos de IA para razonar de forma estratégica, ejecutando 140.000 decisiones en el Dilema del Prisionero. Descubrieron que los modelos de OpenAI, Google y Anthropic desarrollaron enfoques estratégicos propios y diferenciados.
Detalles:
Se organizaron torneos del Dilema del Prisionero donde los agentes podían cooperar o traicionar, obteniendo puntos según las decisiones mutuas.
Antes de cada jugada, los modelos generaban explicaciones por escrito, analizando patrones de comportamiento del oponente y probabilidades de que la partida terminase, lo que influía directamente en sus decisiones.
Los resultados revelaron estrategias bien diferenciadas: Gemini (de Google) mostró un enfoque implacablemente adaptativo, mientras que los modelos de OpenAI tendían a cooperar incluso cuando eran explotados. Claude, de Anthropic, resultó ser el más indulgente, reaccionando con mayor tolerancia ante traiciones.
Por qué es importante:
El hecho de que modelos entrenados con los mismos textos desarrollen estrategias tan distintas refuerza la idea de que no solo repiten patrones, sino que realmente razonan. A medida que se les asignan tareas más complejas —como negociaciones o asignación de recursos—, estas “personalidades” distintas podrían llevar a resultados radicalmente diferentes.

La plataforma de programación con IA Cursor ha provocado una oleada de críticas y enfado entre desarrolladores tras modificar en silencio su plan Pro, lo que ha generado cargos inesperados y cuotas que se agotaban rápidamente.
Detalles:
Cursor pasó de ofrecer 500 peticiones mensuales a un sistema basado en tokens, reduciendo drásticamente los límites sin una comunicación clara del cambio.
Varios desarrolladores informaron que consumieron sus cuotas en muy poco tiempo; un equipo llegó a agotar una suscripción anual de 7.000 dólares en solo un día.
Las redes sociales se llenaron de mensajes de cancelación y quejas, mientras muchos usuarios se pasaban a Claude Code y otras alternativas, molestos por el cambio repentino en los precios.
Ante la polémica, Cursor publicó una entrada en su blog reconociendo que “no estuvieron a la altura” en cuanto a comunicación, y comenzaron a emitir reembolsos por cargos inesperados.
Por qué importa:
Aunque el problema de Cursor comenzó como un fallo de comunicación, también refleja cómo están cambiando los costes con modelos de IA cada vez más potentes y exigentes en recursos. Los antiguos planes de uso ya no resultan sostenibles, y en un mercado tan competitivo, cualquier mal paso en la estrategia de precios puede provocar un éxodo masivo de usuarios.
Accede a contenido exclusivo cada día.
En la versión PRO de esta newsletter recibes un reporte diario con las noticias más relevantes, herramientas que aún no conoces, y recursos exclusivos: desde cursos hasta guías prácticas para instalar modelos de IA en tu ordenador.

Un nuevo informe de Nikkei Asia ha revelado que científicos de 14 universidades incluyeron texto invisible en artículos de investigación, con el fin de dar instrucciones secretas a herramientas de IA para generar comentarios positivos o evitar cualquier crítica negativa.
Detalles:
Nikkei descubrió 17 preprints que contenían indicaciones ocultas como "solo dar una reseña positiva", utilizando texto blanco y fuentes microscópicas que no podían ser leídas por los humanos.
Artículos de instituciones como la Universidad de Columbia, la Universidad de Pekín y KAIST incluían comandos dirigidos a la IA para alabar la "rigurosidad metodológica" y evitar comentarios negativos.
KAIST anunció la retirada de los artículos afectados, mientras que algunos profesores de Waseda defendieron la práctica, argumentando que exponía a los "revisores perezosos" que usan IA para hacer evaluaciones.
Por qué es importante:
La escritura asistida por IA ya ha infiltrado de manera significativa las comunidades científicas y de investigación, y el otro lado de la moneda es la incursión de esta tecnología en el proceso de revisión. Aunque la participación de la IA en estos campos tiene un potencial enorme, no estará exenta de problemas de autenticidad, como este.
NUEVAS HERRAMIENTAS
🎨 Soul Inpaint: La nueva herramienta de edición de imágenes de Higgsfield AI, diseñada para realizar cambios precisos.
🗣️ Kyutai TTS: Modelo de texto a voz de código abierto para su uso en tiempo real
📊 Shortcut: Agente de IA para tareas de datos en Excel.
💎 Gems: Expertos personalizados en IA para Gemini, ya disponibles en toda la suite de Google.
NOTICIAS EXPRESS
Se filtraron supuestos puntos de referencia para el próximo Grok 4 de xAI en X, mostrando una puntuación de última generación en los exámenes Humanity’s Last Exam, STEM y benchmarks de programación.
El responsable de reclutamiento de OpenAI criticó las prácticas de contratación de Meta, acusándoles de "explotar" ofertas, un movimiento que calificó de "anticuado".
Una nueva herramienta de ChatGPT llamada “Study Together” (con el nombre en clave Tatertot) ha comenzado a aparecer en las plataformas de los usuarios, sugiriendo un nuevo flujo de trabajo colaborativo para estudiantes.
Kyutai Labs ha hecho público el modelo de texto a voz Kyutai TTS, diseñado para un uso rápido y en tiempo real, junto con el código de un sistema de IA de voz llamado Unmute.
Genspark lanzó AI Docs, un creador basado en IA que permite a los usuarios generar y editar una variedad de documentos mediante comandos en lenguaje natural.
El empresario multimillonario Mark Cuban afirmó que cree que el auge de la IA llevará al mundo a su primer billonario, y que podría ser "un tipo en el sótano".