- Plataforma tipo TikTok para compartir vídeos de hasta 10 segundos generados con Sora 2.
- Cameos con rostro y voz, control de permisos y avisos cuando se use la imagen de un usuario.
- Creación colaborativa y remixes, feed vertical y pruebas por invitación en EEUU y Canadá.
- Filtros de copyright y política de exclusión voluntaria, con competencia de Meta Vibes y Google Veo 3.

OpenAI está trabajando en una nueva aplicación social centrada en vídeos cortos generados con inteligencia artificial, con una experiencia muy similar a la de TikTok. La propuesta gira en torno a clips breves que se crean dentro de la propia plataforma mediante su modelo más reciente, Sora 2, pensado para transformar instrucciones en escenas fluidas y verosímiles.
Según fuentes cercanas al desarrollo, la app apuesta por una dinámica de consumo rápido y creación sencilla, con grabaciones verticales y funciones sociales habituales. Al mismo tiempo, OpenAI la orienta a la colaboración y a los remixes, priorizando que los usuarios creen y recreen piezas con IA en vez de limitarse a mirar sin más.
Cómo funciona y qué permite
El corazón del producto es claro: todo el contenido se genera en la propia aplicación. No se podrán subir vídeos desde la galería del móvil ni importar piezas creadas con herramientas de la competencia, como el modelo de Google. La duración de los clips se sitúa en torno a los 10 segundos, un formato que encaja con el consumo de vídeo ultrarrápido.
La interfaz mantiene un feed vertical e incluye vistas para recomendaciones, publicaciones recientes y contenido de cuentas seguidas. OpenAI señala que el énfasis no está en maximizar el tiempo de visionado, sino en inspirar nuevas creaciones; de forma predeterminada se prioriza lo que puede servir de punto de partida para generar tu propio vídeo.
Como en otras redes, habrá Me gusta, comentarios y la opción de remezclar creaciones ajenas. Una particularidad útil para aprender es que la descripción del clip puede mostrar el prompt utilizado, de modo que otros puedan entender la intención y iterar a partir de esa idea con rapidez.
Para afinar lo que ves, la app permite indicar tu estado de ánimo o preferencias y ajustar así el tipo de vídeos sugeridos. Todo ello busca un equilibrio entre descubrimiento, seguridad y un entorno que empuje a crear sin fricción.
Cameos: pon tu cara y tu voz en los vídeos
Una de las funciones diferenciales son los cameos, que permiten aparecer en los vídeos generados por IA con tu propio rostro y voz. Para configurarlos, la app solicita una breve captura de vídeo y audio en la que haces pequeños movimientos y lees unos números, con el fin de verificar la identidad y registrar tu imagen de forma segura.
Tras ese paso, puedes definir quién puede usar tu cameo: solo tú, contactos aprobados, amigos o el conjunto de usuarios. La compañía indica que se avisará a quienes aparezcan en las escenas de que su imagen ha sido empleada, añadiendo un nivel de transparencia en el uso de la identidad.
Quien ha probado la aplicación destaca que el sistema mantiene mejor consistencia facial entre tomas respecto a soluciones previas. Además, permite matizar el comportamiento del cameo con descripciones breves (por ejemplo, un tono más serio o más risueño) para encajar en el contexto de la escena.
Actualmente, la versión web prioriza la visualización y creación básica, mientras que la configuración completa de cameos y las opciones más avanzadas están disponibles en la app móvil. De momento, el despliegue está siendo escalonado para pulir la experiencia antes de una apertura mayor.
Sora 2: el motor técnico detrás de los clips
La plataforma se apoya en Sora 2, un modelo multimodal capaz de generar vídeo y audio a partir de texto, imágenes o cameos. Frente a iteraciones previas, destaca por respetar mejor las leyes de la física y sostener la continuidad de escenas complejas, evitando transformaciones incoherentes cuando la acción no sale como se describe.
Ejemplos internos apuntan a que Sora 2 gestiona movimientos complicados (saltos o acrobacias) con menos artefactos y mayor naturalidad en transiciones y rebotes. El resultado son clips más creíbles, pensados para un consumo rápido y con opciones de formato vertical o panorámico según la pieza y el dispositivo.
La generación no es instantánea: cada vídeo puede tardar unos minutos en producirse, pero es posible lanzar varias creaciones en paralelo para agilizar el flujo. Algunos testers señalan límites diarios razonables para evitar saturaciones, una práctica común en servicios con alto coste computacional.
Además de vídeo, el sistema puede sintetizar locuciones y sonidos acordes al contexto, lo que encaja con la idea de clips cortos que se entiendan sin necesidad de edición externa. El objetivo: que cualquiera pueda pasar de un concepto a una pieza publicable en cuestión de segundos.
Disponibilidad, seguridad y derechos de autor
La aplicación se está desplegando por fases: por ahora, está disponible bajo invitación en Estados Unidos y Canadá, y no hay fecha confirmada para una expansión internacional. En España, de momento, solo puede verse contenido de forma limitada a través de la versión web cuando está abierta.
En materia de privacidad, los cameos parten de una verificación explícita y de controles sobre quién puede reutilizar tu identidad. La plataforma asegura que notificará a los usuarios cuando su imagen aparezca en un vídeo, con la intención de evitar usos no deseados y dar trazabilidad al proceso.
Respecto al copyright, OpenAI afirma que aplica filtros para bloquear la generación de contenidos protegidos (franquicias reconocibles, personajes populares, etc.). Paralelamente, y según ha trasladado a representantes del sector, la empresa impulsa un sistema de exclusión voluntaria para el entrenamiento de modelos: los titulares pueden indicar que no desean que su obra se use, un enfoque que ha abierto debate por su alcance y control.
Aun con filtros, algunos usuarios aseguran haber encontrado atajos semánticos para acercarse a ciertos estilos o referencias, lo que pone el foco en la necesidad de mejorar las barreras y clarificar el marco de responsabilidades y licencias en la creación con IA.
Un mercado en ebullición
La iniciativa llega en plena carrera por el vídeo generado por IA. Meta ha introducido Vibes como apartado para clips autogenerados dentro de su asistente, mientras que Google ha integrado versiones recientes de su modelo Veo en su ecosistema de vídeo. La jugada de OpenAI busca controlar no solo la tecnología que crea los contenidos, sino también la experiencia de consumo y la comunidad que los produce.
Si la propuesta cuaja, la red social podría convertirse en un canal clave para popularizar el vídeo con IA entre usuarios que nunca han editado, con un flujo de creación-remix-descubrimiento muy ágil. Falta ver cómo evolucionan la moderación, los límites de uso y la expansión geográfica para medir el impacto real en el ecosistema.
La foto actual es una app de vídeos cortos hechos con IA, con clips de 10 segundos, cameos que permiten poner tu cara y tu voz, funciones sociales y un despliegue por invitación en Norteamérica; todo ello respaldado por Sora 2, un modelo más consistente y físico que sus predecesores, y rodeado de un debate activo sobre derechos, filtros y el papel que jugarán los gigantes tecnológicos en la distribución del contenido generado por IA.
