A OpenAI le han bastado pocas horas después de su lanzamiento de Sora 2 para ser el epicentro de atención de los usuarios. Y es que a ello le acompaña «Sora», una red social de vídeos generados por IA, al más puro estilo TikTok. Algo que en pocas horas se ha convertido en lo más viral y ha multiplicado la polémica sobre los derechos de autor.
La polémica llega de la mano de las «deepfakes«, es decir, clips hiperrealistas que hacen pasar una información falsa por algo verídico. Para ello, se sirve de cualquier rostro o personaje, pasando por famosos hasta por franquicias mundialmente conocidas. Hasta el momento, la red social «Sora» solo se encuentra disponible en Estados Unidos y Canadá, o a través de VPN simulando una ubicación en alguno de los dos países. Por ahora, se desconoce la fecha exacta en que llegará a Europa.
Esta democratización de la IA impulsa, por una parte, la creatividad de los usuarios a la hora de crear vídeos increíbles, pero también el abuso de vídeos falsos de políticos, memes satíricos e incluso escenas ilegales utilizando imágenes de terceros sin permiso alguno. Esta situación ya ha alarmado a expertos y empresas, que advierten del riesgo de una manipulación masiva. Por lo que la app ya se considera una «fábrica de deepfakes» y reta a la legislación de varios países a tomar medidas.
Por ejemplo, expertos en ética digital, como Bruce Schneier, académico en la Harvard Kennedy School, y organizadores como la Electronic Frontier Foundation, han advertido de los riesgos de desinformación a gran escala.
Deepfakes virales: ¿el nuevo escenario permanente?
Tras el lanzamiento de Sora 2 por parte de OpenAI, de manera paralela, OpenAI ha puesto en marcha una nueva red social donde compartir dicho contenido al estilo TikTok. En esta nueva app de vídeos se fusionan la IA y la dinámica viral. Sin embargo, ha creado todo un terremoto en redes, prensa y cuestiones de privacidad que incluso apelan a los sistemas legislativos.
Utilizando los últimos modelos de generación de vídeo, Sora nos permite producir clips hiperrealistas en cuestión de segundos. Desde recrear famosos en situaciones absurdas hasta mezclar franquicias tan reconocidas como Pokémon o Disney. ¿El resultado?, una fábrica masiva de deepfakes y memes. Tan potente y fácil de utilizar que los expertos cuestionan la ética de este tipo de creaciones.
@faikoutai Michael Jackson and a bear. #michaeljackson #kingofpop #openai #sora2 #fyp
Su facilidad de uso no solo potencia la creatividad de sus usuarios. La otra cara de la moneda la encontramos en recreaciones hiperrealistas -y falsas- de declaraciones de políticos, actores u otras celebridades que se realizan sin consentimiento alguno. Desde medios especializados como Wired, ya advierten que Sora facilita enormemente montajes de vídeos ofensivos o directamente perjudiciales para la reputación personal y profesional. El auge de «slop» -contenido genuino, pero vacío o incluso dañino- pone entre la espada y la pared la autenticidad digital y hace pasar por veraces cualquier campaña de desprestigio, humor negro y, sobre todo, manipulación política.
Por su parte, desde OpenAI, conscientes de los riesgos, han implementado varias medidas en Sora, según se recoge en su documentación oficial. Ello incluye:
- Verificación de identidad obligatoria para utilizar la función «Cameo», que inserta nuestro rostro en los vídeos.
- Moderación de contenido por parte de moderadores humanos.
- Derecho de eliminación de uso no autorizado de imagen personal a través de la configuración de la app.
- Límites para menores. Por ejemplo, las cuentas de adolescentes tienen restricciones en el número de generaciones diarias.
| Medida de Seguridad | Descripción de su Función | Fuente |
|---|---|---|
| Verificación de Identidad ('Cameo') | Requiere que el usuario verifique su identidad antes de poder insertar su rostro o el de terceros consentidos en un vídeo. | Documentación de OpenAI |
| Moderación Humana | Un equipo revisa el contenido reportado por los usuarios por violar las políticas de acoso o contenido explícito. | System Card de Sora |
| Derecho de Revocación de Imagen | Permite a cualquier persona solicitar la eliminación de su imagen si ha sido utilizada sin su consentimiento. | Política de Privacidad de OpenAI |
| Etiquetado de Contenido IA | Los vídeos generados incluyen metadatos C2PA para indicar su origen artificial, aunque pueden ser eliminados. | Coalition for Content Provenance and Authenticity (C2PA) |
Un ejemplo viral que ilustra el reto para los países
Este ejemplo de deepfake, compartido en redes por el propio Trump, ha sido uno de los ejemplos más representativos y conocidos de este año. Salió rápidamente del plano técnico para convertirse en un fenómeno político.
En el vídeo, como puedes observar, Donald Trump aparece promocionando un «resort de lujo» en una futura Gaza reconstruida. Compartido por millones de usuarios y aprovechando la situación del pueblo palestino, no es necesario que expresemos la opinión que se generó a nivel mundial.
El peligro no es la veracidad que se esconde tras este caso particular. Cualquier usuario reconocería que se trata de una creación digital. El verdadero peligro se esconde tras las ideas que son capaces de generar en la mente de los usuarios. De ahí la imperiosa necesidad de distinguir realidad y ficción, y una nueva normativa ante el avance imparable de la IA generativa.
