
Grâce à l’intelligence artificielle, il est aujourd’hui possible de créer des images, des voix et des vidéos d’un réalisme impressionnant. Cette technologie n’est pas utilisée uniquement à des fins créatives ou artistiques : elle sert aussi, de plus en plus souvent, à produire des contenus intimes. Ces derniers sont ensuite diffusés sans le consentement ni même la connaissance des personnes concernées. Les jeunes en sont particulièrement touchés.
L’intelligence artificielle peut (presque) tout – y compris imiter à la perfection
L’intelligence artificielle (IA) est désormais capable de générer presque tout type de contenu numérique : visages réalistes, voix, mouvements ou scènes entières. Ces systèmes apprennent à partir d’immenses bases de données – y compris des millions de photos et vidéos partagées par des utilisateurs sur les réseaux sociaux.
Ainsi, des images personnelles ou intimes peuvent être utilisées indirectement comme base pour de nouvelles représentations artificielles. Certaines applications, dites « Deep-Nude », permettent même de créer à partir d’un simple selfie une image de nu d’apparence réaliste. L’effort technique est faible, mais le préjudice potentiel est énorme
Les contenus intimes font partie du quotidien numérique
Selon le BEE SECURE Radar 2025, 42 % des jeunes de 12 à 16 ans déclarent que leurs pairs envoient au moins occasionnellement des photos ou vidéos intimes d’eux-mêmes. Parmi les 17-30 ans, ils sont même 76 % à affirmer avoir reçu de tels contenus.
Une étude récente menée en Belgique et publiée sur la plateforme européenne Better Internet for Kids (Insafe) montre que plus de la moitié des jeunes connaissant ces applications « Deep-Nude » les ont déjà essayées. Cela illustre à quel point ce phénomène est désormais répandu.
Quand l’IA produit des contenus intimes
Il n’est plus nécessaire de disposer d’une vraie photo de nu pour créer une image réaliste. Les outils d’IA peuvent générer un résultat trompeur à partir de simples photos ou vidéos anodines. Ces contenus sont ensuite souvent diffusés sans le consentement de la personne concernée – via des groupes de discussion, des réseaux sociaux ou des plateformes en ligne.
Les victimes perdent ainsi tout contrôle sur leurs images et voient leur vie privée violée. Cela peut entraîner un fort stress, de la honte ou de l’anxiété.
Le consentement est essentiel
Le principe fondamental est simple : tout contenu intime ne peut être créé ou partagé qu’avec le consentement explicite de toutes les personnes concernées.
Même si ces contenus ont été produits dans un cadre de confiance, leur diffusion sans accord reste illégale. Ce comportement est appelé « sexting secondaire » et peut avoir de graves conséquences personnelles et juridiques.
Plus d’informations : « Bass de sécher – Sexting secondaire ».
Le cadre légal au Luxembourg
- Droit à l’image :
Toute personne a le droit de décider si, quand et dans quel contexte son image peut être publiée. L’utilisation ou la diffusion sans autorisation est interdite.
→ Voir l’article « Droit à l’image » pour plus de détails. - Mineurs et CSAM :
Toute représentation d’un mineur dans un contexte sexuel – même générée artificiellement – peut être considérée comme représentation d’abus sexuel sur enfant (CSAM) et est punissable selon les articles 383 et suivants du Code pénal luxembourgeois.
Le CSAM peut être signalé anonymement via la BEE SECURE Stopline.
Des informations complémentaires sont disponibles dans le guide « Nue sur le Net ? ».
Que faire si l’on est concerné ?
Si vous découvrez qu’une image intime ou un deepfake de vous circule :
- Gardez votre calme.
- Sauvegardez les preuves : captures d’écran, liens, messages, horodatages.
- Ne payez rien et ne répondez pas à des tentatives d’extorsion.
- Cherchez du soutien : la BEE SECURE Helpline (Tel. 8002 1234) offre des conseils gratuits et confidentiels.
L’IA : des opportunités… mais aussi de nouveaux risques
Comme toute innovation technologique, l’intelligence artificielle ouvre des perspectives positives, mais aussi de nouveaux dangers. Elle peut favoriser la créativité, l’éducation et la recherche – ou au contraire être utilisée pour la désinformation, l’usurpation d’identité ou l’exploitation sexuelle.
Une équipe de recherche de l’Université de l’Illinois Urbana-Champaign décrit une large gamme de risques pour les jeunes : deepfakes, désinformation, escroqueries, manipulation. Ces risques touchent le développement social, le bien-être mental et la vie privée, surtout lorsque des données personnelles sont partagées.
D’autres dangers proviennent de l’usage abusif de l’IA (par exemple pour le cyberharcèlement ou la fraude), des contenus toxiques générés par les systèmes eux-mêmes, ou encore de la discrimination et des biais liés à des données de formation incomplètes ou erronées.
Prendre conscience que l’IA peut produire tout type de contenu – même ceux qui n’ont jamais existé – est la première étape pour se protéger et protéger les autres.







