Fake porn: otra amenaza más para las mujeres

La aplicación del deep fake está tomando la industria del porno porque permite generar material erótico de celebridades con inteligencia artificial.

Las imágenes producidas nos podrían parecer interesantes como cuando vimos la foto del Papa Francisco en una campera de Balenciaga, pero al mismo tiempo  las nuevas herramientas están siendo utilizadas exclusivamente para generar imágenes pornográficas falsas de mujeres y niñas que, por supuesto, no han dado su consentimiento. 

Hace unos días el cantante JC Reyes (Reyes Cortés) subió a su Instagram una foto de Rosalía donde la cantante aparecía desnuda. O al menos, eso parecía. La fotografía fue modificada en un intento extremista del reguetonero por conseguir visitas e incluso dejó entrever que la propia artista le había pasado esa imagen. En un video en vivo en la misma red social,  justificó su comportamiento y confirmó que la imagen la había editado él mismo con Photoshop.

Los usuarios en redes sociales estallaron en su contra por la evidente violación a la imagen de la cantante. La propia artista compartió su descargo en sus redes sociales:

Su descargo y el apoyo que recaudó de la comunidad abrió un debate, ¿por qué Rosalía se queja de que alguien publique una foto falsa de ella desnuda cuando ella publica imágenes mostrando su cuerpo en redes? La respuesta es simple: si una mujer decide publicar una foto suya desnuda es su elección, porque es dueña de su cuerpo. 

La llegada del fake porn y la vulnerabilidad de las mujeres

Lo ocurrido con Rosalía pone de manifiesto la nueva problemática que está viviendo Internet debido a los cambios vertiginosos de la tecnología, encabezados por el auge y la democratización de la inteligencia artificial. La IA va más allá de tener una conversación graciosa con ChatGPT y está teniendo un impacto directo en la manipulación fotográfica, que poco a poco se está sofisticando.

Para sorpresa de nadie, la creación de deepfakes (contenido multimedia alterado por inteligencia artificial para que parezca realista) está siendo ya ampliamente utilizado en la industria del porno. De acuerdo con un estudio de Deeptrace, compañía especializada en ciberseguridad, ocho de las diez principales páginas web de pornografía incluyen contenidos hechos por medio del deepfake.

Aunque cualquier persona es vulnerable de que su rostro aparezca manipulado y utilizado en un vídeo porno, la compañía asegura que las mujeres se han convertido en las víctimas principales del fake porn. Recordemos el escándalo que surgió en 2019 con Deepnude, una aplicación que utilizaba la inteligencia artificial para crear imágenes falsas de mujeres y niñas desnudas a partir de fotos reales donde aparecen vestidas.

Rosalía no es la única

Hace solo unos días la periodista costarricense, Johanna Villalobos, denunció en su perfil de Twitter que alguien había manipulado una foto suya con inteligencia artificial para quitarle la ropa y compartirla en WhatsApp.

Otras artistas son víctimas de este tipo de uso de la inteligencia artificial y existen videos de fake porn que usan su imagen en sitios de pornografía. Además, es  importante resaltar que esto no afecta solo a celebridades, influencers o personas públicas, sino que tiene el potencial de afectar a cualquier persona.

Hay que actuar pero, ¿hay medidas?

El Instituto Europeo para la Igualdad de Género tipifica las manipulaciones fotográficas de los deepfakes como una nueva y sofisticada forma de agresión machista que implica graves consecuencias para las víctimas

En el caso de las imágenes generadas con inteligencia artificial, no hay medidas concretas que controlen su creación y difusión, aunque es hora de que se empiecen a discutir.

En algunos países –como Argentina– están vigentes, legislaciones  que prohíben la difusión de imágenes privadas sin consentimiento de una mujer, como para el caso del revenge porn, otro fenómeno más de violencia machista en la que se difunden videos o fotos de contenido sexual en la red sin el consentimiento de las personas que aparecen a modo de “venganza”.

Por ahora, como ciudadanos tenemos el poder de frenar o, por lo menos, no colaborar con la distribución de este contenido tanto cuando es falso, como cuando es real.

+NOTIFY: Habilitaron la venta libre en farmacias de la “pastilla del día después”

Artículos Relacionados

Volver al botón superior