• LA SEÑAL
  • Posts
  • Meta ficha a cuatro investigadores de OpenAI

Meta ficha a cuatro investigadores de OpenAI

ADEMÁS: Google lleva potentes capacidades de IA a sus dispositivos con el lanzamiento de Gemma 3n

Meta ha dado un golpe importante en su ofensiva de contrataciones, incorporando a cuatro investigadores de OpenAI que se han unido al nuevo equipo de superinteligencia liderado por Zuckerberg.

Aunque Sam Altman, CEO de OpenAI, ha mostrado confianza en su capacidad para retener talento incluso frente a ofertas de hasta 100 millones de dólares, está claro que el poder económico de Meta está dando sus frutos — y su nueva división empieza a tomar forma de manera significativa.

  • Meta ficha a cuatro investigadores de OpenAI

  • Gemma 3n de Google lleva IA avanzada a los dispositivos

  • Anthropic investiga el apoyo emocional de Claude

  • 4 nuevas herramientas de IA

Meta ha logrado fichar a cuatro investigadores de OpenAI para su nueva unidad de superinteligencia, incluidos tres procedentes de la oficina de Zúrich de OpenAI y un colaborador clave en el desarrollo del modelo de razonamiento o1.

Detalles:

Mark Zuckerberg habría reclutado personalmente a Lucas Beyer, Alexander Kolesnikov y Xiaohua Zhai, el trío que puso en marcha la sede de OpenAI en Zúrich el año pasado.

Meta también ha incorporado a Trapit Bansal, uno de los principales responsables del modelo o1, que trabajó estrechamente con el cofundador Ilya Sutskever.

Sam Altman declaró la semana pasada que Meta había ofrecido primas de fichaje de hasta 100 millones de dólares, pero aseguró que “ninguna de las mejores personas de OpenAI” había aceptado.

Beyer confirmó en X que los tres investigadores de Zúrich se unían a Meta, pero desmintió los rumores sobre los bonos millonarios, calificándolos de “noticias falsas”.

Estas contrataciones llegan poco después de que Meta invirtiera 15.000 millones de dólares en Scale AI y fichara a su CEO, Alexandr Wang, para liderar esta nueva división.

Por qué es importante:

El nuevo equipo de superinteligencia de Meta comienza a consolidarse — y, pese a las declaraciones de Altman, al menos cuatro de sus investigadores han decidido dar el salto. Con talento procedente de algunos de los laboratorios más punteros y un presupuesto aparentemente ilimitado, el primer lanzamiento de esta unidad promete ser muy interesante.

Google ha lanzado la versión completa de Gemma 3n, su nueva familia de modelos de inteligencia artificial abiertos (disponibles en versiones de 2B y 4B parámetros), diseñados para ofrecer potentes capacidades multimodales en dispositivos móviles y de consumo.

Detalles:

Estos nuevos modelos comprenden de forma nativa imágenes, audio, vídeo y texto, y son lo bastante eficientes como para funcionar en dispositivos con tan solo 2 GB de RAM.

Gracias a sus capacidades visuales integradas, pueden analizar vídeo a 60 fotogramas por segundo en móviles Pixel, lo que permite el reconocimiento de objetos y la comprensión de escenas en tiempo real.

En el apartado de audio, Gemma puede traducir en más de 35 idiomas y convertir voz en texto, lo que resulta útil tanto para asistentes de voz como para aplicaciones de accesibilidad.

La versión más avanzada, la E4B, se convierte en el primer modelo con menos de 10.000 millones de parámetros en superar los 1300 puntos en el exigente benchmark LMArena.

Por qué es importante:

El lanzamiento completo de Gemma es otro movimiento muy destacado por parte de Google, que demuestra cómo los modelos continúan ganando potencia incluso al reducir su tamaño para adaptarse al hardware de consumo. Al ser un modelo pequeño y abierto, ofrece posibilidades prácticamente ilimitadas para ejecutar inteligencia artificial directamente en dispositivos.

Accede a contenido exclusivo cada día.

En la versión PRO de esta newsletter recibes un reporte diario con las noticias más relevantes, herramientas que aún no conoces, y recursos exclusivos: desde cursos hasta guías prácticas para instalar modelos de IA en tu ordenador.

Anthropic ha publicado una nueva investigación sobre el uso de Claude en conversaciones emocionales y de apoyo afectivo, concluyendo que este tipo de interacción es mucho menos frecuente de lo que se suele afirmar, con los usos relacionados con compañía o roleplay representando menos del 0,5 % del total.

Detalles:

Los investigadores analizaron 4,5 millones de conversaciones con Claude utilizando Clio, una herramienta que permite estudiar patrones de uso manteniendo el anonimato de los chats.

Los datos revelaron que solo el 2,9 % de los intercambios estaban relacionados con apoyo emocional, siendo la mayoría consultas prácticas sobre temas como cambios laborales o relaciones personales.

Contrariamente a lo que suele difundirse en los medios, el estudio muestra que las conversaciones orientadas a buscar compañía o simular interacciones tipo roleplay representaron menos del 0,5 % del uso total.

Además, los investigadores observaron que el tono emocional expresado por los usuarios tendía a volverse más positivo a lo largo de la conversación, lo que sugiere que la IA no refuerza estados de ánimo negativos.

Por qué es importante:

Aunque últimamente han salido a la luz casos extremos de vínculos emocionales con IA, los datos indican que, al menos en el caso de Claude, siguen siendo muy poco comunes. Eso sí, Anthropic está más enfocada al desarrollo y no tiene la misma presencia generalista que ChatGPT o plataformas como Character AI, por lo que en otros entornos, las cifras podrían ser muy distintas.

NUEVAS HERRAMIENTAS

  • ⚙️ Gemini CLI - Agente de terminal de código abierto con altos límites de uso gratuito

  • 📸 Higgsfield Soul - Nuevo modelo fotográfico de alta estética con realismo avanzado

  • 🧬 AlphaGenome - El nuevo modelo de IA de DeepMind para el análisis de ADN

  • 🗣️ Voice Design V3 - Crea cualquier voz que imagines con un simple comando

NOTICIAS EXPRESS

  • Black Forest Labs ha lanzado FLUX.1 Kontext [dev], un modelo de edición de imágenes de última generación con pesos abiertos que puede ejecutarse eficientemente en hardware de consumo.

  • El modelo R2 de DeepSeek ha enfrentado problemas debido a los controles de exportación que han generado escasez de chips Nvidia, con el CEO Liang Wenfeng mostrando su descontento por el rendimiento del modelo.

  • OpenAI ha publicado una serie de actualizaciones, incluyendo Deep Research a través de API, búsqueda en la web en o3 y o4-mini, y su próximo evento DevDay, previsto para el 6 de octubre en San Francisco.

  • HeyGen presentó HeyGen Agent, un “Sistema Operativo Creativo” que crea contenido en video con guiones, actores, ediciones y más a partir de un simple texto, imagen o video.

  • Google lanzó Doppl, un nuevo experimento en su plataforma Labs, que permite a los usuarios crear videos de prueba de productos generados por IA a partir de una foto y un producto.

  • Meta se convirtió en la última empresa de IA en recibir un fallo favorable sobre el "uso justo" en los tribunales, ganando una demanda presentada por autores por infracción de derechos de autor.

  • Suno anunció la adquisición de WavTool, llevando la estación de trabajo digital basada en navegador de la startup a la plataforma para facilitar la creación musical más avanzada.