- LA SEÑAL
- Posts
- El colapso interno de Thinking Machines
El colapso interno de Thinking Machines
ADEMÁS: Documentos de OpenAI sugieren desarrollo de robots humanoides y hardware para consumidores
Sam Altman no se limitó a abrir las puertas al talento de Thinking Machines, sino que llevaba meses en conversaciones con ellos.
Nuevos informes indican que la convulsa ruptura de la semana pasada en la startup de Mira Murati se gestó durante mucho tiempo. Al parecer, los cofundadores no estaban de acuerdo con el rumbo que tomaba el proyecto, mientras que OpenAI aguardaba el momento idóneo para absorber los restos de la empresa tras el colapso.
Connect your teams and data on one CRM.
Stop juggling tools that don’t talk to each other. HubSpot Smart CRM puts emails, calls, notes, and meetings in one unified system.
Get your team on the same page with:
Contact management with complete interaction history
Deal tracking and pipeline visibility
Meeting scheduler integrated with your calendar
Team collaboration tools so everyone stays aligned
AI that organizes everything automatically
Free to start. Setup takes minutes. Start growing today.
Crónica del descalabro en Thinking Machines
Google ficha al consejero delegado y al equipo de ingenieros de Hume
Runway: El 90 % de los usuarios no distingue los vídeos creados por IA

Según informan el NYT y The Information, han salido a la luz nuevos datos sobre la ruptura de la semana pasada en Thinking Machines Lab, la startup de Mira Murati. El relato incluye reuniones de alta tensión, negociaciones clandestinas con Sam Altman y un intento fallido de venta a Meta.
Los puntos clave:
Confrontación directa: Al parecer, el CTO Barrett Zoph y otros dos cofundadores se enfrentaron a Murati días antes de su destitución, exigiéndole que él asumiera el control total de las decisiones técnicas.
Despidos y fugas: Según los informes, Murati instó a Zoph a limitarse a cumplir con sus funciones de CTO antes de despedirlo esa misma semana. Tras su salida, otros nueve empleados abandonaron la empresa para unirse a OpenAI o aceptar sus ofertas.
Negociaciones secretas: Zoph habría mantenido contacto con Altman a espaldas de Murati durante meses. Los fundadores, descontentos con el rumbo de la compañía, intentaron forzar una adquisición por parte de Meta.
Nuevo rol en OpenAI: Zoph liderará ahora la estrategia de ventas de IA corporativa en OpenAI, en una reestructuración diseñada para conectar mejor los equipos de investigación con el desarrollo de productos.
Por qué es relevante:
Lo que inicialmente pareció una salida accidentada se revela ahora como una lucha de poder interna que se cocinó a fuego lento. Con Thinking Machines sufriendo para alcanzar su valoración de 50.000 millones de dólares y una directiva dividida sobre la venta de la empresa, el colapso era inminente. OpenAI y Altman simplemente estaban en el lugar adecuado para recoger los pedazos.

Google DeepMind ha fichado al CEO de Hume AI y a unos siete de sus ingenieros mediante un nuevo acuerdo de licencia. Este movimiento supone la última maniobra de "acqui-hire" del gigante tecnológico, con el objetivo de integrar la tecnología de voz con inteligencia emocional de Hume directamente en Gemini.
Los detalles:
Fichajes clave: El CEO Alan Cowen y su equipo de ingeniería se centrarán en dotar a los modelos de Google, especialmente a las funciones de voz de Gemini, de una mayor capacidad para interpretar y expresar emociones.
Continuidad de Hume AI: La startup seguirá funcionando de forma independiente bajo la dirección de su nuevo CEO, Andrew Ettinger. Su actividad principal será seguir proporcionando herramientas y datos de entrenamiento de voz a otros laboratorios que desarrollan IA conversacional.
Tendencia en el sector: Esta operación calca la estrategia que Google ya siguió con Character AI el año pasado (por 3.000 millones de dólares), y se asemeja a las jugadas de Microsoft con Inflection o de Meta con el CEO de Scale AI.
Por qué es importante:
La voz se está consolidando como el método de interacción preferido con la IA. La diferencia entre un asistente útil y uno tosco reside en la capacidad de entender el tono, la emoción y los matices del lenguaje. Además, con la llegada inminente de nuevos dispositivos y wearables de IA al mercado de masas, contar con una voz más humana será un factor competitivo determinante.
Accede a contenido exclusivo cada día.
En la versión PRO de esta newsletter recibes un reporte diario con las noticias más relevantes, herramientas que aún no conoces, y recursos exclusivos: desde cursos hasta guías prácticas para instalar modelos de IA en tu ordenador.

Runway ha publicado un estudio que revela que más del 90 % de los participantes fue incapaz de distinguir entre grabaciones reales y clips de imagen a vídeo generados con su modelo Gen-4.5. La compañía describe este nivel de realismo como un "punto de inflexión" social para los contenidos creados con IA.
Los detalles:
Resultados del test: De los más de mil participantes que visualizaron 20 clips de cinco segundos, solo 99 lograron una tasa de acierto del 75 % o superior al intentar identificar la IA.
Lo más difícil de detectar: Las escenas de naturaleza y los edificios resultaron ser los elementos más complejos de diferenciar, llegando incluso a ser más convincentes las versiones generadas que los vídeos reales.
Liderazgo en el sector: Gen-4.5 encabeza actualmente el ranking de Artificial Analysis en la categoría de texto a vídeo, mientras que Runway despliega esta misma semana sus nuevas funciones de imagen a vídeo.
Por qué es importante:
Si los vídeos de IA de baja calidad ya lograban engañar a muchos, modelos como Gen-4.5 elevan el realismo a un nivel donde la detección es prácticamente imposible. A pesar de los esfuerzos por establecer estándares de verificación, no existe una solución definitiva para un mundo donde el dicho "ver para creer" ha dejado de tener validez.


