Hace relativamente poco nos enteramos de la existencia de DeepNude, una aplicación que utilizaba la inteligencia artificial y las redes neuronales para eliminar la ropa de imágenes de mujerespara mostrarlas desnudas.
La aplicación nos dejaba subir una imagen de una mujer con ropa y creaba una nueva imagen falsa recreando el cuerpo desnudo gracias a un algoritmo entrenado con miles de imágenes de mujeres desnudas que ofrecía un resultado tan realista (a pesar de que como os decimos, la imagen era falsa) que podía engañar a muchos usuarios en la red.
Como era de esperar, esta aplicación no tardó en desatar la polémica en la red, con sus propios creadores admitiendo que "subestimaron mucho" el interés que despertaría la aplicación y reconociendo la alta probabilidad de que "la gente haga mal uso" de DeepNude.
Tras la polvareda levantada, los creadores de DeepNude han decidido cerrar la aplicación y dejar de venderla, advirtiendo a los actuales poseedores que tienen prohibido compartir el programa ya que los términos de uso de la aplicación lo prohíben.
Aun así, los desarrolladores de DeepNude también reconocen la posibilidad de que "algunas copias" se compartan en la web, amén de explicar que la aplicación se ha estado vendiendo "de forma controlada" desde hace meses y que nunca pensaron que podría hacerse viral.
— deepnudeapp (@deepnudeapp) June 27, 2019
En total, 500.000 personas han hecho uso de la aplicación que, pese a que incorpora una marca de agua para intentar evitar un mal uso y dejar claro que la imagen es falsa, las probabilidades de hacer un mal uso de la misma y hacer pasar la imagen del desnudo de cualquier mujer como real era demasiado alta asegurando el mismo estudio que "el mundo aún no está preparado para DeepNude".
Desde luego, se trataba de una aplicación de lo más controvertida a la que se podía dar un uso muy preocupante, pudiendo subir la imagen de cualquier mujer para crear un desnudo fake y convertirla en una víctima potencial de acoso, extorsión o abuso.