Ayer mismo te contamos que OpenAI lanzó Sora de una vez por todas. Su generador de vídeos a partir de texto ya es una realidad y se puede utilizar en casi todo el mundo con cierta libertad. Es un anuncio de considerable relevancia en el mundillo de la IA, pues se trata de una de las herramientas más sofisticadas y avanzadas para crear vídeos con inteligencia artificial. Ahora bien, una de sus principales funciones, y la más buscada por los usuarios de a pie, está limitada.
Solo unas pocas personas en el mundo han obtenido acceso, y estas están dentro del círculo de confianza de OpenAI. Se trata de la herramienta que permite generar vídeos de varios segundos a partir de las fotografías de personas reales. Según OpenAI, su uso todavía afronta problemas en la seguridad y privacidad de los usuarios, pues es una herramienta muy poderosa que permite hacer un mal uso de la inteligencia artificial.
Y es que, como ya te puedes imaginar, crear un vídeo a partir de una fotografía puede ser algo maravilloso, pero también un problema si se pone al alcance de cualquiera. Se pueden generar desnudos falsos, la recreación de acciones que atenten contra la privacidad de las personas y un larguísimo etcétera.
La capacidad de generar un video usando una foto o un vídeo de una persona real como ‘semilla’ es un vector de posible mal uso que estamos abordando de manera especialmente gradual para aprender de los primeros patrones de uso. Blog de OpenAI
En otras palabras: OpenAI todavía no sabe cómo evitar que se haga un mal uso de su mejor herramienta de vídeo. Para paliar las posibles consecuencias, y hasta que encuentren una solución, la herramienta estará disponible solo para unos pocos. Y, a no ser que tú estés dentro del círculo de confianza de la compañía, no vas a poder ser uno de los afortunados.
Sora tiene sistemas de protección, pero no son suficientes
Actualmente, Sora ya tiene varios sistemas de seguridad que intentan evitar usos malintencionados en la creación de vídeos. Un buen ejemplo es su filtro de edad, que limita el uso de prompts sexuales y violentos si la imagen inicial muestra personas menores de 18 años. Según OpenAI, la IA impone un «umbral más estricto» de lo que se puede pedir en estos casos.
Además, todos los vídeos que se generan con Sora incluyen una buena serie de metadatos, para poder extraer información sobre su creador, la imagen inicial y otros detalles importantes en caso de utilizarse para cometer un delito. Pero claro, como bien indican desde TechCrunch, estos metadatos se pueden eliminar de forma relativamente sencilla.
Por lo tanto, parece que Sora seguirá limitando el acceso a su herramienta para crear vídeos a partir de imágenes reales, al menos hasta que sepan cómo evitar que Internet se llene de vídeos sexuales generados a partir de una simple fotografía.