
Hasta hace poco, Sora, el modelo de inteligencia artificial desarrollado por OpenAI para generar videos a partir de texto, era exclusivo para dispositivos iOS. Ahora, con la llegada de Sora 2 a Android, los usuarios del sistema operativo de Google también pueden sumarse a esta nueva forma de crear contenido visual con un par de frases escritas. Se trata de una actualización que no solo amplía la disponibilidad de la herramienta, sino que introduce mejoras significativas en la calidad y el realismo de los videos generados.
De texto a video: una experiencia más realista
La versión 2 de Sora incorpora un elemento que cambia las reglas del juego: la generación de sonido sincronizado con las imágenes. Esto permite que los clips creados no solo luzcan realistas, sino que también suenen de forma coherente con la acción mostrada. Es un paso clave hacia la simulación audiovisual completa, algo que antes estaba limitado a resultados mudos o con audio superpuesto de forma externa.
El uso es sencillo y está pensado para todo tipo de usuarios. Basta con ingresar un texto que describa la escena deseada, y el sistema se encarga del resto. Por ejemplo, si se escribe “una niña corre tras una cometa en la playa mientras suena el viento fuerte”, el resultado mostrará precisamente eso: una escena generada por IA, con animaciones fluidas, contextos naturales y un ambiente sonoro acorde. Aunque no todo es perfecto al 100 %, el nivel de detalle ha mejorado notablemente respecto a la versión anterior.
Remixes, inspiración y colaboración creativa
Uno de los aspectos más atractivos de esta herramienta es su función de remix, que permite a los usuarios modificar o ampliar creaciones ya existentes. Esto convierte a Sora no solo en un generador de video, sino en una especie de lienzo compartido donde la inspiración de una persona puede ser el punto de partida para otras. Es una forma de fomentar la creatividad colectiva y la experimentación con nuevas narrativas visuales.
La posibilidad de partir de una idea previa y transformarla con un nuevo enfoque es especialmente valiosa para quienes trabajan en entornos creativos o educativos. Se pueden desarrollar proyectos colaborativos en los que distintos usuarios aporten versiones alternativas de una misma escena, construyendo una historia desde diferentes perspectivas o géneros.
Un salto en la tecnología de video por IA
La incorporación de audio y el mayor realismo en las secuencias representan un salto notable en la evolución de los modelos generativos. Aunque sigue siendo evidente en algunos casos que el contenido no fue grabado con una cámara real, la ilusión es cada vez más convincente. Esto plantea una doble lectura: por un lado, el potencial creativo se multiplica, pero también se abre la puerta a debates sobre los límites éticos de estas herramientas.
Por ahora, el enfoque de OpenAI sigue siendo el de ofrecer una herramienta que funcione como soporte a la creatividad, sin sustituir el trabajo profesional ni fomentar la desinformación. La versión actual de Sora está pensada para la exploración artística y el aprendizaje tecnológico, permitiendo a cualquier persona experimentar con el lenguaje audiovisual sin necesidad de conocimientos técnicos avanzados.
Cómo acceder y probar Sora en Android
Con esta nueva versión ya disponible en Android, solo hace falta descargar la aplicación desde Google Play para comenzar a generar videos desde texto. La interfaz está diseñada para ser intuitiva, con menús claros y un sistema de edición fácil de usar. Cada sesión de creación ofrece sugerencias para mejorar los prompts (las instrucciones escritas), algo que resulta útil para quienes se inician en el mundo de la IA generativa.
Si bien la herramienta puede ser utilizada con fines recreativos, también es posible aplicarla en proyectos profesionales, como prototipos de publicidad, animaciones para redes sociales, o incluso en el campo educativo, donde sirve para ilustrar conceptos complejos con ejemplos visuales.
Una herramienta en evolución constante
Sora 2 representa un paso más dentro del rápido avance de la inteligencia artificial aplicada al video. Tal como mencionan desde Android Police, el impacto que tuvo ChatGPT en su momento parece replicarse ahora con esta nueva forma de crear contenido. Aunque se trata de una tecnología aún en desarrollo, lo visto hasta ahora invita al optimismo: la facilidad de uso, la calidad de los resultados y la posibilidad de integrar sonido hacen de esta herramienta algo que vale la pena explorar.
Todavía hay margen para mejorar, y quienes han probado Sora notan que algunas animaciones o sonidos pueden parecer artificiales si se observan con detenimiento. Sin embargo, lo importante es que ya estamos en un punto donde la inteligencia artificial no solo escribe o habla, sino que también ve, escucha y crea en movimiento.
https://ift.tt/F56fywK
by Natalia Polo via WWWhat's new












0 desahogos:
Publicar un comentario
Los comentarios son opiniones personales y no necesariamente coinciden ideológicamente con esta pagina. Tu cosmovisión es única e irrepetible.