Deepfakes: la nueva amenaza de la IA para la sociedad
Un estudio de Google DeepMind revela el creciente uso de la inteligencia artificial generativa para crear contenido falso con fines maliciosos.
En la era de la información, la capacidad de discernir entre lo real y lo falso se vuelve cada vez más desafiante. La inteligencia artificial (IA) ofrece herramientas poderosas para la creación de contenido, pero en las manos equivocadas, estas herramientas pueden convertirse en armas de desinformación y manipulación. Un nuevo estudio de Google DeepMind expone el preocupante auge de los deepfakes y la falsificación de información mediante técnicas de IA generativa.
El estudio, basado en un análisis cualitativo de 200 incidentes observados entre enero de 2023 y marzo de 2024, revela cómo estas tecnologías están siendo utilizadas para fines fraudulentos y manipulativos, con un profundo impacto social. Los deepfakes, definidos como “reproducciones audiovisuales generadas que imitan con precisión la apariencia y voz de personas reales”, ocupan el primer lugar entre las tácticas maliciosas identificadas.
Un peligro para la democracia y la reputación:
Los deepfakes representan una grave amenaza para la democracia y la reputación de las personas. Un ejemplo alarmante es el caso de las llamadas robóticas fraudulentas con la voz de Joe Biden en New Hampshire, Estados Unidos, cuyo objetivo era desanimar la participación electoral. El investigador Ardi Janjeva del Instituto Alan Turing advierte sobre el impacto a largo plazo de estas tácticas en la confianza en las instituciones democráticas.
Apropiación indebida de la imagen y extorsión:
La creación de videos y fotos falsas para colocar a individuos en contextos difamatorios o comprometedores es otra práctica preocupante. La cantante Taylor Swift fue víctima de este tipo de ataque cuando imágenes falsas explícitas de ella se difundieron en las redes sociales.
Daños económicos y manipulación legal:
Los deepfakes también se utilizan con fines económicos fraudulentos. Un caso destacado fue la creación de un video deepfake de un CEO solicitando transferencias urgentes de fondos, lo que ocasionó importantes pérdidas financieras a la empresa. Además, se han detectado casos donde estos contenidos falsos se utilizan para crear “pruebas” en situaciones legales o para extorsionar a individuos.