L'application DeepNude permet, grâce à une IA (intelligence artificielle) plutôt complexe, de déshabiller une femme en créant un corps factice qui ressemble au sien. Le principe de l'application était donc simple, il suffisait de prendre une photographie d'une femme, et l'intelligence artificielle faisait en sorte de lui créer de toutes pièces un corps, nu, ressemblant au sien. Le montage, très bien réalisé, permettait ainsi à l'utilisateur de l'application d'obtenir une fausse photographie dévêtue. Les applications permettant de trouver le conjoint parfait ou de changer de physique, comme la célèbre application Facetune, ont le vent en poupe depuis plusieurs années.

Le public a cependant réservé un très mauvais accueil à l'application Deepnude, si bien que son créateur a décidé, il y a plusieurs semaines de cela, de la retirer du marché. Malheureusement, sur internet, il est très difficile de faire disparaître totalement et à jamais un document ou une application. De nombreuses copies ont donc vu le jour et ce sont celles sur le site GitHub qui ont le plus fait parler d'elles récemment.

Les nouvelles versions de DeepNude sur GitHub

GitHub est une entreprise de développement de logiciels et de services, qui avait accepté d'accueillir des copies de l'application DeepNude, pour une raison bien précise, celle d'étudier le code de l'application. Ce code permet en effet de comprendre le fonctionnement de l'IA et aurait pu être utilisé à de meilleures fins, c'est en tout cas ce que souhaitait l'entreprise.

Face aux nombreuses réactions des internautes, la plateforme a cependant décidé de se séparer de ces copies. Le porte-parole de GitHub a ainsi déclaré au journal VICE : "Nous avons désactivé le projet, car nous avons constaté qu'il contrevenait à notre politique d'utilisation". GitHub interdit en effet les contenus à caractère sexuel, et a donc dû prendre les mesures qui s'imposaient.

Des copies encore disponibles

Malgré le retrait de ces copies, d'autres, toujours plus nombreuses, continuent de circuler sur le Web. De ce fait, il est bon de rappeler que les deepfakes, c'est à dire les hypertrucages permettant de superposer une image réelle avec une image fausse, sont passibles de poursuites judiciaires en France si elles sont utilisées à mauvais escient.

Ces montages peuvent en effet être utilisés pour harceler une personne, et bien que la photographie créée par l'application DeepNude comportait un bandeau sur lequel on pouvait lire "Fake", il n'était pas compliqué d'utiliser un logiciel tel que Photoshop pour le supprimer.

À l'heure où le harcèlement est de plus en plus mis en lumière par les médias, l'utilisation d'une application de ce genre fait polémique. Si une personne est victime de ce genre de montages, des solutions existent au quotidien, et des numéros, tels que le 3020 (numéro contre le harcèlement), sont mis à disposition afin de trouver des solutions durables dans le temps.