X
  1. Vandal Random
  2. Noticias
  3. La pornografía hecha con IA está arruinando la vida a los adolescentes

La pornografía hecha con IA está arruinando la vida a los adolescentes

La inteligencia artificial hace que sea fácil crear desnudos realistas, lo que provoca una oleada de imágenes falsas de mujeres jóvenes y menores.

ChatGPT tal y como lo conocemos acaba de cumplir un año y lo que ha cambiado el mundo en tan poco tiempo ha sido tanto, que varios países están trabajando en leyes que protejan sobre sus efectos. La Unión Europea aún anda en estos menesteres, preparando una Ley de Inteligencia Artificial eficaz. Este mismo jueves, actores y guionistas de Hollywood han conseguido blindarse ante las cosas que puede hacer esta tecnología, escribir guiones, suplantar actores, etc.

Mientras tanto, el mal uso de la misma ya está provocando más de un quebradero de cabeza. La razón es que muchos jóvenes están recurriendo a esta tecnología para crear imágenes de sus compañeras, novias o amigas desnudas, sin su consentimiento claro y con un realismo que está haciendo estragos en las víctimas. Esta tecnología es accesible y barata, de hecho, en mucho de los casos es totalmente gratuita, por lo que los casos se multiplican.

Conmoción en un pueblo de Extremadura

En España, el caso de Almendralejo, Badajoz, llamó la atención de padres en todo el territorio que han visto cómo este fenómeno afecta la tranquilidad y la dinámica social, llevando a algunas víctimas a recluirse y sentir vergüenza, a pesar de ser inocentes.

En esta localidad, más de 20 niñas y adolescentes, entre los 11 y los 17 años, denunciaron que fueron víctimas de una app de inteligencia artificial. "Un día mi hija salió del colegio diciendo 'Mamá, están circulando fotos mías con el pecho desnudo'", cuenta María Blanco Rayo, la madre de una joven de 14 años, a la BBC.

"Le pregunté si se había tomado fotos desnuda y dijo, ‘No, mamá, estas son fotos falsas de niñas que están siendo creadas por montones y hay otras niñas de mi clase a las que les ha pasado también'", añade la progenitora.

Resulta que las imágenes que ese estaban compartiendo en grupos de WhatsApp y Telegram fueron creadas usando fotos de dichas niñas completamente vestidas, extraídas de sus propios perfiles en las redes. Estas imágenes fueron procesadas mediante una aplicación que genera una recreación muy realista de cómo se vería la persona sin ropa.

Por si fuera poco, los investigadores del caso también están estudiando la denuncia de un intento de extorsión a una niña usando fotos falsas de ella. Lo llamativo del caso es que los sospechosos en este caso tienen edades de entre 12 y 14.

Sin normativa específica

La realidad es que actualmente la ley española no contempla específicamente la generación de imágenes de naturaleza sexual cuando se trata de adultos, aunque la creación de ese material con menores puede ser considerada pornografía infantil. Otro cargo posible podría ser por violar las leyes de privacidad. En España, los menores sólo enfrentan acusaciones criminales a partir de los 14 años.

Rosalía y Laura Escanes, víctimas

A principios de año le tocó a Rosalía vivir el lado oscuro de la IA. Cuando en redes sociales se viralizaron imágenes de ella en topless generadas con IA. Ella se pronunció al respecto en Twitter, sabiendo que muchas mujeres jóvenes estaban viviendo situaciones similares. "Ir a buscar clout faltando el respeto y sexualizando a alguien es un tipo d violencia y da asco pero hacerlo por 4 plays de + lo q da es pena".

La influencer Laura Escanes también lo vivió en sus carnes, expresando que la hizo " sentir utilizada y expuesta y que el cuerpo de una mujer no se utiliza ni para el placer, ni para abusar ni para manipular".

Un problema global

Otra influencer, en este caso internacional, Gabi Belle, ha relatado en el Washington Post como vivió el descubrir que estaba circulando pornografía falsa hecha con IA con su imagen.

Cuando Belle, de 26 años, descubrió que una foto suya desnuda circulaba por internet, se sintió helada. La influencer de YouTube nunca había posado para tal imagen, que la mostraba desnuda en un campo. Era consciente de que debía ser falsa.

Pero cuando le envió un mensaje a un colega pidiéndole ayuda para eliminar la imagen, él le dijo que había casi 100 fotos falsas en internet, la mayoría alojadas en sitios web conocidos por albergar pornografía generada por inteligencia artificial. Fueron eliminadas en julio, pero ya han aparecido nuevas imágenes que la representan en situaciones sexuales gráficas.

"Me sentí asquerosa y violada", expresó. "Esas partes privadas no están destinadas a que el mundo las vea porque no he dado mi consentimiento para ello. Así que es realmente extraño que alguien haga imágenes de mí".

En los 10 principales sitios web que albergan fotografías pornográficas generadas por IA, los desnudos falsos se han disparado en más de un 290% desde 2018, según una analista de la industria a la que tuvo acceso la misma publicación. Estos sitios presentan a celebridades y figuras políticas como la representante de Nueva York Alexandria Ocasio-Cortez junto a adolescentes comunes y corrientes, cuyas imágenes han sido aprovechadas por malos actores para incitar a la vergüenza, extorsionar o vivir fantasías privadas.

Las víctimas tienen pocos recursos. No hay una ley federal que regule la pornografía deepfake y solo un puñado de estados en EEUU han promulgado regulaciones. La orden ejecutiva sobre IA de Biden recomienda, pero no exige, que las empresas etiqueten las fotografías, vídeos y audio generados por inteligencia artificial para indicar cuál es el trabajo generado por computadora.

La mujer en el punto de mira

La llegada de las imágenes de IA supone un riesgo particular para las mujeres y los adolescentes. Por ejemplo, un estudio de 2019 realizado por Sensity AI, una empresa que monitorea los deepfakes, encontró que el 96 por ciento de las imágenes deepfake son pornografía y el 99 por ciento de esas fotos son de mujeres.

Es cierto que Google cuenta con políticas para evitar que aparezcan imágenes sexuales no consensuadas en los resultados de búsqueda, pero sus protecciones para imágenes falsas no son tan sólidas y no siempre es capaz de identificar estas imágenes para hacerlas desaparecer masivamente.

Existen herramientas que funcionan para los casos en los que se ha hecho público un nude real, sin consentimiento, como la plataforma StopNCII.org, pero gracias a la rápida evolución de la inteligencia artificial, los deepfakes pornográficos están fuera de control.