Fake porn: otra amenaza más para las mujeres
La aplicación del deep fake está tomando la industria del porno porque permite generar material erótico de celebridades con inteligencia artificial.
Las imágenes producidas nos podrían parecer interesantes como cuando vimos la foto del Papa Francisco en una campera de Balenciaga, pero al mismo tiempo las nuevas herramientas están siendo utilizadas exclusivamente para generar imágenes pornográficas falsas de mujeres y niñas que, por supuesto, no han dado su consentimiento.
Hace unos días el cantante JC Reyes (Reyes Cortés) subió a su Instagram una foto de Rosalía donde la cantante aparecía desnuda. O al menos, eso parecía. La fotografía fue modificada en un intento extremista del reguetonero por conseguir visitas e incluso dejó entrever que la propia artista le había pasado esa imagen. En un video en vivo en la misma red social, justificó su comportamiento y confirmó que la imagen la había editado él mismo con Photoshop.
Los usuarios en redes sociales estallaron en su contra por la evidente violación a la imagen de la cantante. La propia artista compartió su descargo en sus redes sociales:
El cuerpo d una mujer n es propiedad pública, no es una mercancía xa tu estrategia d marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni t conozco. Existe algo llamado consentimiento y todos a los q os pareció gracioso o plausible espero de…
— R O S A L Í A (@rosalia) May 24, 2023
Su descargo y el apoyo que recaudó de la comunidad abrió un debate, ¿por qué Rosalía se queja de que alguien publique una foto falsa de ella desnuda cuando ella publica imágenes mostrando su cuerpo en redes? La respuesta es simple: si una mujer decide publicar una foto suya desnuda es su elección, porque es dueña de su cuerpo.
La llegada del fake porn y la vulnerabilidad de las mujeres
Lo ocurrido con Rosalía pone de manifiesto la nueva problemática que está viviendo Internet debido a los cambios vertiginosos de la tecnología, encabezados por el auge y la democratización de la inteligencia artificial. La IA va más allá de tener una conversación graciosa con ChatGPT y está teniendo un impacto directo en la manipulación fotográfica, que poco a poco se está sofisticando.
Para sorpresa de nadie, la creación de deepfakes (contenido multimedia alterado por inteligencia artificial para que parezca realista) está siendo ya ampliamente utilizado en la industria del porno. De acuerdo con un estudio de Deeptrace, compañía especializada en ciberseguridad, ocho de las diez principales páginas web de pornografía incluyen contenidos hechos por medio del deepfake.
Aunque cualquier persona es vulnerable de que su rostro aparezca manipulado y utilizado en un vídeo porno, la compañía asegura que las mujeres se han convertido en las víctimas principales del fake porn. Recordemos el escándalo que surgió en 2019 con Deepnude, una aplicación que utilizaba la inteligencia artificial para crear imágenes falsas de mujeres y niñas desnudas a partir de fotos reales donde aparecen vestidas.
Rosalía no es la única
Hace solo unos días la periodista costarricense, Johanna Villalobos, denunció en su perfil de Twitter que alguien había manipulado una foto suya con inteligencia artificial para quitarle la ropa y compartirla en WhatsApp.
Usaron mi foto de la playa y con Inteligencia Artificial “me quitaron la ropa”.. estoy harta de ver cómo nos utilizan para su entretenimiento, la foto esta en Grupos de WhatsApp, redes sociales, NO SOY YO y lo más lamentable de todo es que no puedo hacer nada al respecto. pic.twitter.com/Er78wXxkTb
— Johanna Villalobos 🐍 (@johavillam) May 23, 2023
Otras artistas son víctimas de este tipo de uso de la inteligencia artificial y existen videos de fake porn que usan su imagen en sitios de pornografía. Además, es importante resaltar que esto no afecta solo a celebridades, influencers o personas públicas, sino que tiene el potencial de afectar a cualquier persona.
Hay que actuar pero, ¿hay medidas?
El Instituto Europeo para la Igualdad de Género tipifica las manipulaciones fotográficas de los deepfakes como una nueva y sofisticada forma de agresión machista que implica graves consecuencias para las víctimas
En el caso de las imágenes generadas con inteligencia artificial, no hay medidas concretas que controlen su creación y difusión, aunque es hora de que se empiecen a discutir.
En algunos países –como Argentina– están vigentes, legislaciones que prohíben la difusión de imágenes privadas sin consentimiento de una mujer, como para el caso del revenge porn, otro fenómeno más de violencia machista en la que se difunden videos o fotos de contenido sexual en la red sin el consentimiento de las personas que aparecen a modo de “venganza”.
Por ahora, como ciudadanos tenemos el poder de frenar o, por lo menos, no colaborar con la distribución de este contenido tanto cuando es falso, como cuando es real.
+NOTIFY: Habilitaron la venta libre en farmacias de la “pastilla del día después”