- LA SEÑAL
- Posts
- OpenAI recupera el trono de la generación de imágenes
OpenAI recupera el trono de la generación de imágenes
ADEMÁS: Documentos de OpenAI sugieren desarrollo de robots humanoides y hardware para consumidores
Tras los primeros pasos de OpenAI con DALL-E y GPT Image 1 en la generación de imágenes, el Nano Banana de Google ha encabezado los rankings durante casi un año. Esa racha acaba de terminar.
El nuevo ChatGPT Images 2.0 de OpenAI es el primer modelo de imágenes que planifica, busca en la web y revisa sus propios resultados antes de generar, y los números lo avalan — con una mejora que Sam Altman describe como pasar "de GPT-3 a GPT-5 de golpe."
OpenAI marca un antes y un después con Images 2.0
Meta registra las pulsaciones de teclado de sus empleados para entrenar IA
Google lleva al límite a su Agente de Investigación Profunda
The World's Biggest Dev Event Hits Silicon Valley
WeAreDevelopers World Congress comes to San José, CA — September 23–25, 2026. 10,000+ developers, 500+ speakers, and the full software development lifecycle under one roof, in the heart of Silicon Valley.
Kelsey Hightower. Thomas Dohmke (fmr. CEO, GitHub). Christine Yen (CEO, Honeycomb). Mathias Biilmann (CEO, Netlify). Olivier Pomel (CEO, Datadog). The people actually building the tools you use every day — all on one stage.
AI, cloud, DevOps, security, architecture, and everything real builders ship with. Workshops, masterclasses, and the official congress party.

OpenAI acaba de lanzar ChatGPT Images 2.0, su modelo de generación de imágenes actualizado que llevaba semanas haciéndose viral en pruebas — calificándolo como "el modelo de generación de imágenes más inteligente jamás construido".
Los detalles:
2.0 razona antes de generar imágenes, lo que le permite planificar, buscar información y referencias en la web, y revisar los resultados en busca de errores antes de entregarlos.
El modelo se sitúa en el primer puesto del ranking de texto a imagen de Arena AI con una ventaja considerable sobre Nano Banana 2, barriendo en todas las categorías de generación.
Entre otras funciones destacan la resolución 2K, la posibilidad de generar hasta 8 imágenes a la vez, proporciones que van desde el ultra panorámico 3:1 hasta el vertical 1:3, y renderizado de texto en varios idiomas.
Sam Altman describió el lanzamiento como "pasar de GPT-3 a GPT-5 de golpe", y el modelo ya está disponible en ChatGPT, Codex y a través de la API.
Por qué importa:
Llevaba tiempo sin que OpenAI liderase el mundo de la imagen, y este lanzamiento la devuelve a lo más alto con fuerza — con un modelo que no solo parece "resolver" los problemas con imágenes y texto como ningún otro antes, sino que además transforma por completo los flujos de trabajo con unas capacidades de razonamiento que abren vías creativas completamente nuevas.

Meta está llevando a cabo una iniciativa interna denominada Model Capability Initiative (MCI) para registrar capturas de pantalla, pulsaciones de teclado y movimientos del ratón en los ordenadores portátiles de trabajo de sus empleados en EE.UU., sin posibilidad de optar por no participar, con el objetivo de recopilar datos reales para el entrenamiento de IA — lo que ha generado un fuerte malestar dentro de la organización.
Los detalles:
El alcance de MCI se centra principalmente en desarrolladores, registrando la actividad en aplicaciones como VSCode, Metamate (el asistente de IA interno de Meta), Google Chat y Gmail.
Business Insider publicó el comunicado interno, al que el CTO Andrew Bosworth respondió a las quejas afirmando que no existe "ninguna opción para no participar". Alrededor de 8.000 empleados de Meta están previstos para salir de la empresa el 20 de mayo, y MCI comenzará a registrar sus flujos de trabajo un mes antes de su fecha de salida.
El comunicado presentó la medida como la forma en que todos los empleados de Meta pueden ayudar a que los modelos de la compañía "mejoren simplemente haciendo su trabajo diario".
Por qué importa:
Los laboratorios de robótica llevan años grabando a personas realizando tareas físicas para enseñar a sus sistemas cuándo y cómo agarrar objetos, caminar o apilar cajas. Meta acaba de trasladar ese mismo enfoque al software y al uso del ordenador, con la diferencia de que los sujetos de prueba son sus propios empleados — y el contexto de despidos masivos le da un tinte profundamente distópico.
Accede a contenido exclusivo cada día.
En la versión PRO de esta newsletter recibes un reporte diario con las noticias más relevantes, herramientas que aún no conoces, y recursos exclusivos: desde cursos hasta guías prácticas para instalar modelos de IA en tu ordenador.

Google ha lanzado Deep Research y Deep Research Max, dos agentes de última generación que utilizan Gemini 3.1 Pro para generar informes de investigación a partir de la web, archivos subidos o cualquier servidor de Model Context Protocol, incluyendo gráficos e infografías.
Los detalles:
Ambos agentes emplean Gemini 3.1 Pro y funcionan sobre el mismo motor de investigación integrado en NotebookLM, sustituyendo a la versión preliminar de Deep Research que Google presentó en diciembre.
Los benchmarks de Google muestran mejoras notables en Max tanto en recuperación de información como en razonamiento, superando a versiones anteriores y a modelos como Opus 4.6 y GPT 5.4.
Los usuarios también pueden combinar la búsqueda abierta en la web con servidores MCP y archivos subidos, o restringir el acceso externo para buscar únicamente en sus datos privados.
Google ya trabaja con empresas como PitchBook, S&P y FactSet para desarrollar servidores MCP que integren datos financieros de pago directamente en el flujo de investigación.
Por qué importa:
El trabajo intensivo en investigación de analistas, consultores y abogados ha sido siempre un objetivo evidente para la automatización con IA. El movimiento de Google convierte esa amenaza en una llamada a una API con precio fijo que cualquier desarrollador puede integrar en su producto. Cabe esperar más alianzas a medida que cada sector identifique qué partes de su flujo de investigación acaban de volverse automatizables.


