• LA SEÑAL
  • Posts
  • Sora irrumpe en Hollywood de forma disruptiva

Sora irrumpe en Hollywood de forma disruptiva

ADEMÁS: Documentos de OpenAI sugieren desarrollo de robots humanoides y hardware para consumidores

In partnership with

Parece que, desde su lanzamiento, la plataforma de Inteligencia Artificial Sora de OpenAI ha estado utilizando la imagen de famosos de forma un tanto inapropiada, pero el actor Bryan Cranston acaba de llevarlo al terreno literal.

Con un nuevo comunicado conjunto del líder de la IA y las agencias de Hollywood en el que se comprometen a reforzar las medidas de seguridad, uno de los mayores puntos fuertes del auge viral de esta aplicación de vídeo con IA se está convirtiendo rápidamente en un inconveniente.

The Tech newsletter for Engineers who want to stay ahead

Tech moves fast, but you're still playing catch-up?

That's exactly why 100K+ engineers working at Google, Meta, and Apple read The Code twice a week.

Here's what you get:

  • Curated tech news that shapes your career - Filtered from thousands of sources so you know what's coming 6 months early.

  • Practical resources you can use immediately - Real tutorials and tools that solve actual engineering problems.

  • Research papers and insights decoded - We break down complex tech so you understand what matters.

All delivered twice a week in just 2 short emails.

OpenAI acaba de publicar un comunicado conjunto con el actor Bryan Cranston, las principales agencias de Hollywood y el sindicato SAG-AFTRA, en el que anuncia que van a «reforzar las medidas de seguridad» de Sora 2 en lo referente a la replicación de la imagen y la voz de los famosos.

Los detalles:

Cranston se encontró con vídeos generados por IA en Sora 2 que circulaban con su imagen, incluyendo uno en el que aparecía haciéndose selfies con Michael Jackson, a pesar de que él nunca había dado su consentimiento.

OpenAI pidió disculpas por las «generaciones no intencionadas» y se comprometió a aplicar medidas de seguridad más estrictas mediante una «colaboración productiva» con el sindicato y las agencias.

El comunicado también mostró su apoyo a la Ley NO FAKES, que pide protección contra las réplicas de IA no autorizadas de las voces y la imagen de los artistas.

El presidente de SAG-AFTRA, Sean Astin, advirtió que el caso de Cranston representa a «innumerables artistas» en riesgo, y afirmó que el consentimiento explícito es «la única forma de hacer negocios» con las empresas de IA.

Por qué es importante:

Sora ha estado actuando de forma un tanto arriesgada desde su lanzamiento (¡guiño, guiño!) y no es de extrañar que veamos acciones legales por parte de herederos, como los de Martin Luther King Jr., y ahora por parte de Cranston. Aunque algunos famosos, como Mark Cuban, han dado su consentimiento, gran parte del éxito viral de la plataforma se ha construido sobre lo que ahora parece un área legal muy turbia en lo que respecta a la IA y los derechos de imagen digitales.

Anthropic acaba de presentar Claude Code en la web en una versión de prueba de investigación, lo que permite a los desarrolladores programar directamente desde el navegador en lugar de hacerlo en un terminal. Este asistente con capacidad de actuación también puede gestionar varias tareas a la vez en la nube.

Los detalles:

Los usuarios tienen la opción de conectar repositorios de GitHub y asignar tareas, de modo que el asistente de programación puede ejecutar varias instancias al mismo tiempo con un seguimiento del progreso en tiempo real.

Cada sesión de codificación se lleva a cabo en su propio espacio de trabajo aislado, lo que evita que cualquier tarea acceda a archivos o redes fuera de sus límites designados.

Los usuarios de las versiones Pro y Max pueden acceder a Claude Code a través del navegador o de la aplicación de iOS, asignar tareas y obtener solicitudes automáticas de pull request cuando el trabajo se haya completado.

Por qué es importante: 

El hecho de sacar Claude Code de las herramientas de línea de comandos resulta una gran comodidad en el entorno laboral actual, que está en constante movimiento, ya que proporciona una experiencia optimizada para las tareas rutinarias. Es probable que la interfaz web sea también una forma más accesible para que los usuarios con menos experiencia prueben la herramienta en un entorno menos intimidante.

Accede a contenido exclusivo cada día.

En la versión PRO de esta newsletter recibes un reporte diario con las noticias más relevantes, herramientas que aún no conoces, y recursos exclusivos: desde cursos hasta guías prácticas para instalar modelos de IA en tu ordenador.

El que fuera un servicio de intercambio de archivos y streaming de música, Napster, acaba de lanzar Napster 26, con lo que se reinventa como una plataforma de IA. El producto principal es una pantalla holográfica de 99 dólares que proyecta asistentes de IA en 3D sobre las pantallas de Mac sin necesidad de usar gafas.

Los detalles:

La plataforma ofrece más de 15 000 compañeros de IA, como especialistas en programación o entrenadores de bienestar, que se ven como hologramas en 3D a través de la pantalla Napster View.

Los usuarios también pueden crear "gemelos digitales" de IA de sí mismos, los cuales, según afirma Napster, pueden asistir a reuniones, responder preguntas y gestionar la presencia online.

La compañía fue adquirida este año por 207 millones de dólares por la firma de tecnología 3D Infinite Reality, que fue la encargada de transformar la plataforma musical en un producto de compañeros de IA.

Napster 26 se lanza para Mac con suscripciones a partir de 19 dólares al mes, y el hardware View tiene un precio de 99 dólares o se puede obtener de forma gratuita con los planes anuales.

Por qué es importante:

Aunque la marca Napster pueda evocar nostalgia en los millennials, esta es una "reinvención" bastante radical. Las empresas de IA han estado impulsando la IA que puede ver las acciones del usuario, y este holograma lleva esa experiencia al terreno literal. Sin embargo, teniendo en cuenta las recientes innovaciones con el compañero Grok de xAI, podría haber más mercado para este tipo de experiencias de lo que se podría pensar.