La cantante Taylor Swift es expuesta con varias imágenes sexualmente explícitas que fueron viralizadas en X (antes Twitter) por 47 millones de vistas.
A esta tendencia se le llama deepfakes, contenido falso generado con inteligencia artificial.
La plataforma de X tardó cerca de 17 horas en suspender la cuenta de un usuario verificado quien fue el que publicó el material.
Sin embargo, la imagen anteriormente se reenvió más de 24.000 veces y logró cientos de miles de «me gusta». «Taylor Swift AI» se convirtió en tendencia, lo que impulsó la difusión del contenido.
«La publicación de imágenes de desnudos no consensuales (NCN) está estrictamente prohibida en X y tenemos una política de tolerancia cero hacia dicho contenido», dijo luego la red social de Elon Musk en un comunicado. Pero el problema trasciende a esta plataforma.
Conoce más de: FraudGPT es el lado criminal del ChatGPT
Estos deepfakes de Taylor Swift, por ejemplo, circularon primero por Telegram.
Estas imágenes se originaron en un grupo de esta aplicación de mensajería, donde los usuarios comparten imágenes explícitas de mujeres que son generadas utilizando inteligencia artificial.
Esta vez fue Taylor Swift, pero la práctica ya suma varias víctimas. Este mes se detectó deepfakes pornográficas de una treintena de celebridades femeninas.
La inteligencia artificial generativa vino a impulsar una práctica violenta que se desarrolla desde hace años.
Sensity AI, una empresa con sede en Ámsterdam que se dedica a detectar contenido falso ya advertía en 2019 que el 96 % de los vídeos deepfake en internet eran pornográficos. Y que la mayoría tenía como víctimas a mujeres.
Una investigación en octubre encontró al menos 35 sitios dedicados al porno deepfake.
Otros 300 publican algún tipo de este material realizado sin consentimiento. Son cientos de miles de videos.
Ver más; Deepfakes crea videos pornográficos con Inteligencia artificial