Redacción
EU.- Un día después de que falsas imágenes pornográficas de Taylor Swift se volvieran virales en la red social X, fanáticos de la cantante, políticos estadunidenses e incluso la Casa Blanca expresaron su indignación.
Las autoridades de Estados Unidos denunciaron que las imágenes generadas por inteligencia artificial todavía estaban disponibles en otras plataformas. Una de esas imágenes fue vista 47 millones de veces en X antes de que fuera eliminada ayer. Según medios estadunidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.
Las imágenes pornográficas “deepfake” -falsas pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino. El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno, que afecta sobre todo a adolescentes
Incluso la Casa Blanca expresó su preocupación sobre el tema.
“Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas”, dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.
“Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea”, añadió. X es una de las plataformas de contenido pornográfico más grandes del mundo, afirman algunos analistas, ya que sus políticas sobre desnudez son más flexibles que las de Facebook o Instagram, propiedad de Meta.
El caso de Apple y Google es distintos, pues ambas compañías pueden intervenir para controlar los contenidos que circulan en las aplicaciones mediante las reglas que imponen sus sistemas operativos móviles, pero hasta ahora ambos han tolerado esta situación en X.
En un comunicado, X aclaró que “publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido” en su plataforma. “Tenemos una política de tolerancia cero hacia ese contenido”.
La red social, propiedad del magnate Elon Musk, afirmó que estaba “eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas”. Además, resaltó que estaba “vigilando de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido”.
Discussion about this post