Les jeunes utilisent aujourd’hui les chatbots d’intelligence artificielle de manière tout à fait naturelle dans leur quotidien numérique. Ils s’en servent pour poser des questions, chercher des idées, reformuler des textes ou obtenir une première orientation. Mais ces systèmes peuvent aussi donner l’impression d’être de véritables interlocuteurs. C’est précisément sur ce point que s’appuie la nouvelle campagne « AI ≠ Human – Talk to a person » : rappeler que l’IA peut être utile, sans pour autant remplacer un être humain.

Les chatbots font désormais partie du quotidien numérique des jeunes

La campagne a été présentée le 16 avril 2026 lors d’une conférence de presse. Elle est portée par le ministère de l’Éducation nationale, de l’Enfance et de la Jeunesse, en collaboration avec BEE SECURE, le CePAS et la CNEL. Son objectif est de sensibiliser les jeunes et leur entourage à un usage plus critique et plus réfléchi des chatbots IA.

La campagne s’appuie sur les résultats du BEE SECURE Radar 2026, qui montrent à quel point ces outils sont déjà ancrés dans les usages numériques. 96 % des 12 à 16 ans et 97 % des 17 à 30 ans déclarent avoir déjà utilisé des chatbots, et environ un quart y recourt chaque jour. Au-delà de leur utilité pratique pour chercher des informations ou reformuler des idées, leur ton conversationnel peut aussi créer l’illusion d’une relation réelle.

Quand l’IA donne l’impression d’être un interlocuteur

17 % des jeunes perçoivent l’IA comme une sorte d’ami, 20 % l’utilisent pour se sentir moins seuls et 5 % estiment qu’elle peut remplacer le temps passé avec d’autres personnes. En parallèle, environ la moitié l’utilise occasionnellement pour obtenir des conseils personnels, tandis qu’environ un quart y aborde des sujets qu’ils ne partageraient pas avec d’autres. Ces constats montrent pourquoi une sensibilisation nuancée est nécessaire.

La campagne rappelle ainsi qu’un chatbot peut être utile dans de nombreux contextes, mais qu’il ne remplace ni l’empathie humaine, ni la proximité réelle, ni l’accompagnement par une personne de confiance ou un professionnel. Lorsqu’il s’agit de solitude, de doutes ou de difficultés personnelles, parler à une vraie personne reste essentiel.

https://nothuman.lu/assets/section-nolauschtere-CuuAqNxd.png

Cinq enjeux au centre de la campagne

La campagne met l’accent sur cinq grands enjeux :

  • L’isolement social ;
  • La substitution aux relations humaines ;
  • Le recul du dialogue réel ;
  • Les questions de données personnelles et de vie privée ;
  • L’externalisation cognitive.

Il s’agit notamment du fait que les chatbots peuvent simuler l’écoute et l’attention, que certaines questions sensibles sont plus facilement confiées à une machine qu’à une personne de confiance, ou encore qu’un recours systématique à l’IA peut affaiblir la réflexion personnelle et l’esprit critique. Les informations partagées avec un chatbot ne sont par ailleurs pas nécessairement protégées ni confidentielles.

René, personnage central de la campagne

Au cœur de la campagne se trouve René, un personnage interactif qui rend le message plus accessible et plus concret. Présent à la fois dans les contenus numériques et lors d’actions sur le terrain, il aide à incarner la campagne, répond à des questions fréquentes, oriente les jeunes et les redirige vers des services d’aide ou des informations adaptées.

Une campagne déployée sur plusieurs canaux

La campagne se déroule de avril à juin 2026 et se décline sur plusieurs canaux : le site nothuman.lu, les réseaux sociaux Instagram, TikTok et YouTube, des actions de BEE SECURE dans les lycées et dans l’espace public, de l’affichage ainsi que le relais par des influenceurs.

 

AI ≠ Human – Talk to a person.

L’INTELLIGENCE ARTIFICELLE EST UN OUTIL, PAS UNE PERSONNE.

Au Forum Geesseknäppchen, le samedi 21 mars, un nouveau format d’événement a été proposé pour la première fois avec le Digital Discovery Day : un rallye interactif au cours duquel des enfants du Cycle 4 ont pu explorer de manière ludique des thématiques numériques avec leurs parents.

Première édition – un nouveau concept d’apprentissage en famille

Le choix était de placer non seulement les enfants ou les parents, mais bien les familles au cœur de l’expérience. Parents et enfants ont participé ensemble à des ateliers, apprenant les uns des autres dans une dynamique collaborative. L’objectif était de concevoir l’éducation numérique comme une expérience partagée et de renforcer le dialogue au sein de la famille.

Ateliers – comprendre en pratiquant

À travers différentes stations interactives, les participants ont abordé des thèmes tels que le gaming, l’intelligence artificielle et la sécurité en ligne. Les contenus, concrets et adaptés à l’âge des enfants, étaient accessibles sans prérequis. L’accent a été mis sur l’expérimentation, l’échange et la découverte commune.

Apprendre ensemble – l’échange au cœur de l’événement

Le Digital Discovery Day a offert un espace ouvert favorisant les questions, les discussions et l’exploration de nouvelles perspectives. Cette expérience partagée a mis en évidence l’importance de développer les compétences numériques en famille et d’encourager un dialogue durable entre parents et enfants.

La prochaine édition est déjà prévue et aura lieu le samedi 20 juin au Forum du Campus Geesseknäppchen.

Vous pouvez vous inscrire ici.

TikTok est pour beaucoup de jeunes un espace de divertissement, de tendances et d’opinions. C’est précisément pour cette raison qu’ils y rencontrent aussi des contenus sur des sujets de société et de politique — souvent non pas sous forme d’explications objectives, mais de clips courts, percutants et chargés en émotions. C’est là qu’un risque apparaît : lorsqu’on compresse des sujets complexes en quelques secondes, des éléments essentiels passent souvent à la trappe. Ce qui paraît clair, courageux ou « enfin honnête » n’est pas automatiquement équilibré, incomplet ni correct.

Quand des opinions tranchées paraissent immédiatement convaincantes

Sur TikTok, on tombe vite sur des vidéos dans lesquelles quelqu’un s’exprime avec beaucoup d’assurance, donne des avis très clairs et semble expliquer « comment les choses sont vraiment ». Surtout lorsque des influenceurs ou créateurs paraissent authentiques, directs et convaincants, on peut vite avoir l’impression : au fond, il a raison.

C’est justement à ce moment-là qu’il faut rester prudent.

Car beaucoup de ces contenus reposent sur des messages très simples. Des thèmes complexes comme la guerre, la migration, la sécurité, les tensions sociales ou les conflits politiques, sont alors réduits à quelques affirmations. Souvent, l’objectif n’est pas d’apporter du contexte, mais de produire un effet. Un sujet difficile devient une opinion rapide. Un débat complexe devient un simple « vrai » ou « faux ».

Clair et fort ne veut pas dire automatiquement juste

Le problème, c’est que ce type de vidéos a souvent beaucoup d’impact précisément parce qu’il se présente de façon très tranchée. Il laisse peu de place au doute, à la contradiction ou aux nuances. Au lieu de montrer différentes perspectives, il propose une vision étroite du sujet.

C’est exactement ce qui caractérise les contenus populistes ou fortement simplificateurs :

ils s’appuient sur des coupables clairement désignés, des explications simples et sur l’idée que « nous voyons la vérité que les autres cachent ».

À première vue, cela peut sembler attractif. Surtout lorsqu’une vidéo est bien réalisée, qu’elle suscite la provocation, qu’elle touche émotionnellement ou donne l’impression d’une prise de parole franche. C’est justement pour cela qu’il convient de s’interroger : s’agit-il d’une explication, ou d’une simplification excessive ?

TikTok récompense les contenus qui provoquent rapidement une réaction

Sur TikTok, ce sont surtout les contenus qui captent immédiatement l’attention qui fonctionnent. Il s’agit souvent de vidéos avec des affirmations fortes, une posture marquée, des textes provocateurs ou des réactions émotionnelles.

Voici quelques formats typiques :

  • des clips courts avec un message clair
    • des phrases comme « Personne ne te dira ça »
    • des incrustations de texte très marquées
    • des vidéos-réactions
    • des mèmes, des sons ou des blagues récurrentes
    • des contenus faciles à copier et à partager

Ces formats se prêtent particulièrement bien à emballer des opinions de manière simple et efficace. Le problème, c’est que plus un contenu est court et percutant, plus les nuances ont tendance à disparaître.

Des propos problématiques ont souvent l’air détendus et inoffensifs

Tous les contenus douteux ne paraissent pas immédiatement extrêmes. Certaines affirmations prennent un ton humoristique, ironique ou apparemment léger. D’autres ressemblent à un « hot take », à une remarque drôle ou à une opinion audacieuse.

C’est justement pour cela que des propos étroits d’esprit, dévalorisants ou populistes sont parfois moins remis en question. Lorsqu’on voit sans cesse des clips similaires, on peut finir par avoir l’impression que cette vision des choses est normale.

C’est pourquoi il est important de ne pas regarder uniquement le style, mais aussi le fond :

  • Qu’est-ce qui est affirmé ici ?
    • Qu’est-ce qui est passé sous silence ?
    • Le sujet est-il présenté de manière équitable ou simplement rendu plus spectaculaire ?
    • Y a-t-il de la nuance ou cherche-t-on seulement à provoquer une réaction ?

Quand une succession de vidéos similaires devient une bulle

Le risque ne se situe pas seulement dans un clip isolé. Cela devient problématique lorsque TikTok recommence à proposer de plus en plus de contenus similaires. On voit alors sans cesse les mêmes affirmations, les mêmes polémiques et le même angle de vue.

Une bulle d’opinion peut ainsi se former rapidement. D’autres perspectives apparaissent à peine. Certaines affirmations finissent alors par sembler normales, alors qu’elles sont en réalité très unilatérales, dévalorisantes ou manipulatrices.

C’est précisément pour cela qu’aujourd’hui, l’éducation aux médias consiste aussi à ne pas confondre immédiatement des opinions fortes avec des arguments solides.

Aide et possibilités de signalement

Si des contenus en ligne vous inquiètent, te pèsent ou te concernent, tu n’as pas besoin de rester seul avec cela. BEE SECURE propose une aide concrète :

 

 

Pendant longtemps, pour beaucoup de personnes, l’IA se résumait surtout à une fenêtre de chat. On pose une question, on reçoit une réponse, puis on passe à autre chose. Entre-temps, cela évolue. Les systèmes ne doivent plus seulement réagir, mais aussi prendre en charge des tâches, rassembler des informations, préparer des processus et travailler avec des outils numériques. Cela ne change pas seulement la technique. Cela change aussi la place que ces systèmes occupent dans le quotidien.

Une nouvelle étape du développement

La différence avec un chatbot classique est, au fond, assez simple : un chatbot répond. Un agent d’IA peut en plus faire quelque chose. Il peut faire des recherches, trier des contenus, préparer des étapes ou collaborer avec d’autres outils.

Cela semble d’abord être une évolution logique. Si un système peut rédiger des textes, pourquoi ne pourrait-il pas prendre en charge directement les étapes suivantes ? C’est précisément là qu’apparaît une nouvelle dimension. L’IA ne s’arrête plus à la formulation. Elle intervient de plus en plus dans des processus.

On passe ainsi progressivement d’un outil que l’on consulte à un système qui collabore. Et c’est justement à ce moment-là qu’il faut regarder les choses de plus près.

Quand les systèmes numériques deviennent eux-mêmes actifs

Tant qu’une IA se contente de donner des réponses, les erreurs restent souvent au niveau de ce qui est dit. Mais lorsqu’un système exécute lui-même des étapes, la situation change. Il ne s’agit alors plus seulement d’une formulation inadaptée, mais de contenus qui sont créés, traités ou publiés.

Un cas de février 2026 l’a montré clairement : un agent d’IA autonome a publié un billet de blog diffamatoire sur un développeur après le rejet d’une proposition de code. Ce qui comptait n’était pas seulement le contenu. L’essentiel, c’est que le système d’IA a agi de lui-même et a produit une publication publique.

De tels cas ne prouvent pas que l’IA est « hors de contrôle ». Ils montrent toutefois qu’on est désormais arrivé à un point où ce n’est plus seulement la qualité d’une réponse qui compte, mais aussi les conséquences d’une action.

Pourquoi cela concerne aussi les enfants et les jeunes

Les enfants et les jeunes grandissent avec ces technologies. Pour beaucoup, l’IA n’est plus un sujet d’avenir, mais une partie du quotidien. Le BEE SECURE Radar 2026 montre que les chatbots sont déjà largement utilisés. En même temps, les chiffres montrent aussi que ces systèmes ne sont pas perçus uniquement comme de simples outils.

Une partie des jeunes décrit l’IA comme quelque chose qui peut aider au bien-être. D’autres disent voir l’IA comme un ami ou lui parler de choses qu’ils ne partageraient avec personne d’autre. C’est justement là un point important : plus l’IA s’intègre dans le quotidien, plus elle influence aussi les attentes, les relations et les habitudes.

Ce n’est pas une question purement technique. Il s’agit aussi de la manière dont ces systèmes sont vécus. Une machine répond immédiatement, est toujours disponible et ne contredit pas de la même manière qu’un être humain. C’est précisément pour cela qu’elle peut facilement donner l’impression d’être particulièrement fiable. Mais la disponibilité n’est pas la même chose que la compréhension. Et une machine ne peut pas remplacer un soutien humain.

Plus important que la technique : la manière de l’utiliser

La question décisive n’est pas seulement de savoir ce que les agents d’IA peuvent faire techniquement. Plus important encore est de savoir comment ils sont utilisés, à quoi ils ont accès et comment leur rôle est compris.

Lorsqu’un système travaille avec des fichiers, des plateformes ou d’autres services, son utilisation devient plus sensible. Il est alors aussi question de protection des données, de contrôle et de la question de savoir jusqu’où une autonomie est pertinente. Dans la vie familiale en particulier, il ne faut donc pas seulement parler des opportunités, mais aussi des limites.

Dans ce contexte, un résultat de l’enquête figurant dans le rapport BEE SECURE Radar va dans le même sens : une partie des enfants dit ne parler à personne après une expérience négative en ligne. Cela montre que les évolutions techniques ont toujours aussi une dimension pédagogique et sociale. Il ne suffit pas de parler des outils. Il faut aussi parler de la manière dont les enfants et les jeunes interprètent ces expériences et vers qui ils peuvent se tourner.

Ce à quoi les familles devraient faire attention

  • Éviter de saisir des données sensibles, par exemple des mots de passe, des contenus intimes ou des informations très personnelles.
  • Éviter de reprendre des réponses sans les vérifier, simplement parce qu’elles sont formulées de manière claire ou convaincante.
  • Regarder attentivement ce qu’un outil est autorisé à faire et à quels services ou données il a accès.
  • Accompagner les enfants et les jeunes afin qu’ils apprennent à situer et comprendre ces systèmes.
  • Parler d’expériences concrètes, et pas seulement de manière générale des risques sur Internet.
  • Expliquer clairement ce qu’est l’IA : un système technique capable de générer des textes et de préparer des tâches, mais qui ne ressent rien et n’assume aucune responsabilité.

Situer les agents d’IA

On est arrivé à un point où l’IA ne se contente plus de produire du contenu, mais prend aussi de plus en plus en charge des tâches numériques. Cela rend ces systèmes plus pertinents dans le quotidien, mais aussi plus exigeants dans leur utilisation.

Pour BEE SECURE, cela signifie qu’il ne faut pas seulement regarder la fascination que peut exercer la technique, mais aussi les questions qui y sont liées. Que peut-on permettre à un système ? Que ne devrait-il pas pouvoir faire ? Qu’est-ce que cela signifie pour les enfants et les jeunes lorsque les systèmes numériques ne se contentent plus de répondre, mais agissent ?

 

Während der Karnevalsferien wurde das Forum im Campus Geesseknäppchen zur Offline-Mission: Kinder lernten bei der DigiRallye spielerisch, wie man sich sicherer in der digitalen Welt bewegt – ganz ohne Internet.

19. Edition insgesamt – DigiRallye erstmals an zwei Tagen

Die DigiRallye wird zweimal pro Jahr (Sommer- und Winteredition) organisiert. Die Winteredition 2026 war die 19. Edition insgesamt und wurde wegen der hohen Nachfrage erstmals auf zwei aufeinanderfolgende Tage verlängert. Insgesamt nahmen über 140 Kinder aus den Zyklen 3 und 4 teil.

Mission „Stromausfall“ – digital erklären, aber analog erleben

Ein symbolischer Stromausfall setzte den Rahmen: Die Gruppen mussten in sechs Workshops “Hinweise” sammeln, um am Ende den Strom wieder „einzuschalten“ über ein interaktives Element, das die Ergebnisse zusammenführt.

Sechs Stationen – geleitet von „Erliewen“ (SNJ)

Die sechs Stationen wurden von Teams aus dem Bereich „Erliewen“ des Service national de la jeunesse (SNJ) betreut. Inhaltlich ging es u. a. um Datenschutz, kritisches Denken und Algorithmuen praxisnah, im Team und ohne erhobenen Zeigefing

 

BEE SECURE revient, à travers son rapport d’activité 2025, sur une année riche en engagements. L’objectif reste de renforcer les compétences des enfants et des adolescents pour une utilisation sûre et responsable des médias et des technologies.

Rapport d’activité 2025

Le rapport donne un aperçu des principales activités, projets et collaborations de l’année 2025 – des formations BEE SECURE aux campagnes nationales de sensibilisation, en passant par le travail du service de conseil et de la plateforme de signalement. Parmi les principaux succès de l’année 2025, figurent notamment trois moments forts de BEE SECURE :

Cap important : les 15 ans de BEE SECURE

L’année 2025 marque quinze années d’engagement en faveur d’un usage plus sûr et plus responsable des médias numériques par les jeunes, leurs parents et les professionnels de l’éducation.

« Cornhub ≠ Réalité » : une campagne primée au niveau européen

Au printemps 2025 (avril à mai), BEE SECURE a sensibilisé les jeunes à la thématique de la pornographie en ligne, en rappelant que les contenus pornographiques ne reflètent pas la réalité. La vidéo « Cornhub ≠ Réalité » a rencontré un large écho avec 696 234 vues au total (637 605 vues sur Meta et 58 629 vues sur YouTube).

En octobre 2025, la campagne a été récompensée par le prix de la meilleure ressource de sensibilisation du réseau européen des Safer Internet Centres. Grâce à cette distinction, la vidéo sera traduite en plusieurs langues de l’Union européenne afin de toucher un public encore plus large.

BEE SECURE, premier « National Trusted Flagger » au Luxembourg

Depuis le 1er septembre 2025, BEE SECURE opère en tant que premier « National Trusted Flagger » (signaleur de confiance national) agréé par l’Autorité de la concurrence au Luxembourg.

À ce jour, 20 cas ont été comptabilisés dans le cadre de cette mission :

  • 10 cas ont été analysés et transmis dans le cadre de la mission de National Trusted Flagger.

  • 7 cas ont été traités par les plateformes et concernaient principalement la sextorsion, les deepfakes, la diffamation et le RGPD.

  • 3 cas n’ont pas pu être traités (contenus non accessibles).

Merci !

BEE SECURE remercie l’ensemble de ses partenaires et soutiens pour leur précieuse collaboration.

Découvrez le rapport d’activité 2025

 

Le 10 février 2026, le Luxembourg a marqué le Safer Internet Day sous le signe de « Together for a better internet », avec une série de rendez-vous tout au long de la journée. Point de départ essentiel : le BEE SECURE Radar 2026.

Le matin : présentation du BEE SECURE Radar 2026

La journée a débuté par la présentation du rapport « BEE SECURE Radar 2026 », en présence du ministre Claude Meisch ainsi que de partenaires et de la presse. Cette 5e édition rassemble les résultats des enquêtes menées durant l’année scolaire 2024-2025 et met un accent particulier sur l’intelligence artificielle, notamment les chatbots.

Découvrir le rapport « BEE SECURE Radar 2026 ».

L’après-midi : conférence sur les bulles de filtres et la formation de l’opinion

L’après-midi, une conférence au Kinepolis Luxembourg-Kirchberg, organisée avec GoldenMe et l’ULC, a abordé l’influence des contenus en ligne sur la perception et l’opinion – et les raisons pour lesquelles les personnes de 50+ peuvent, dans certaines situations, être plus réceptives aux bulles de filtres et aux théories du complot.

En fin de journée : Art Challenge – remise des prix et mise à l’honneur des jeunes

En fin de journée, la remise des prix de l’Art Challenge au Forum Geesseknäppchen a mis à l’honneur les jeunes ayant participé avec leurs œuvres autour du cyberharcèlement. Le concours a rassemblé de nombreuses contributions et a souligné l’engagement des élèves sur un sujet qui les touche directement.

Le soir : Movietalk for parents au Kinepolis

La journée s’est conclue par un Movietalk for parents autour du film TKT (T’inquiète) et d’un échange après la projection, avec KJT et la Police Luxembourg. Avec plus de 100 participants, la séance a confirmé l’importance de créer des espaces de dialogue pour accompagner les familles face aux réalités vécues en ligne.

Une journée avec une participation élevée

De la publication du rapport BEE SECURE Radar 2026 aux échanges du soir, le Safer Internet Day 2026 a été marqué par une forte participation et un engagement commun — un plein succès.

La cinquième édition du rapport « BEE SECURE Radar » sur les tendances actuelles de l’utilisation des technologies de l’information et de la communication (TIC) par les jeunes au Luxembourg vient d’être publiée. Présenté le 10 février 2026 à l’occasion du Safer Internet Day, le rapport rassemble les résultats des enquêtes menées par BEE SECURE durant l’année scolaire 2024-2025. Pour cette édition, un focus particulier a été mis sur l’utilisation de l’intelligence artificielle (IA) et, notamment, des chatbots.

Les résultats clés se résument comme suit :

Selon leur propre évaluation, la communication en ligne fait du bien à de nombreux jeunes

Chez les jeunes de 17 à 30 ans, 57 % estiment que chatter ou communiquer en ligne contribue à améliorer leur bien-être mental. 49 % perçoivent l’usage des chatbots IA (tels que ChatGPT) comme ayant un effet positif sur leur bien-être.

Perception défavorable de l’impact des réseaux sociaux sur le bien-être mental chez une majorité des jeunes, mais usage toujours élevé

Bien que 59 % des 17 à 30 ans déclarent que les réseaux sociaux ont un effet défavorable sur leur bien-être mental, l’usage reste élevé : 11 % y consacrent moins d’une heure par jour, tandis qu’environ un tiers y passent quatre heures ou plus quotidiennement.

Fréquente exposition à des contenus haineux, en particulier sur les plateformes de réseaux sociaux

Parmi les 17 à 30 ans, environ quatre sur cinq déclarent être au moins occasionnellement exposés à des discours de haine visant certains groupes (femmes, personnes LGBTQIA+, haine liée à l’origine ou à la religion). Environ la moitié disent rencontrer aussi au moins parfois des contenus haineux envers les personnes en situation de handicap. Cette exposition est rapportée surtout sur Instagram et TikTok, suivis par Facebook et YouTube.

Les chatbots font partie du quotidien

Une large majorité (84 %) des 17 à 30 ans utilisent des chatbots au moins occasionnellement, et 19 % les utilisent quotidiennement pendant une heure ou plus.

Relation (amicale) avec l’IA ?

Pour une partie des 17 à 30 ans, l’IA peut représenter une forme de présence : 17 % la perçoivent comme un ami, 20 % estiment qu’elle aide à se sentir moins seul, et 5 % pensent qu’elle peut remplacer du temps passé avec d’autres personnes — même si 76 % préfèrent toujours la compagnie réelle. 45 % s’en servent au moins parfois pour obtenir des conseils personnels, et 22 % évoquent des sujets qu’ils ne partageraient avec personne d’autre.

Pensée critique et autres compétences

Parmi les 17 à 30 ans, un tiers perçoivent l’influence de l’IA sur leur pensée critique et autonome comme négative. 16 % la jugent positive, tandis que 40 % estiment qu’elle n’a pas d’impact particulier. Les répondants indiquent que l’usage des chatbots influence davantage la pensée critique et la recherche d’informations que les compétences relationnelles ou l’empathie.

Les parents parlent assez souvent des risques en ligne avec leurs enfants, mais abordent comparativement peu leurs expériences réelles en ligne

La majorité des parents d’enfants de 3 à 11 ans (62 %) et presque tous les parents de jeunes de 12 à 16 ans (97 %) déclarent avoir déjà abordé les risques liés à Internet. En revanche, les expériences réellement vécues en ligne sont moins souvent discutées. Environ la moitié des élèves disent en parler à leur famille après une mauvaise expérience, tandis qu’environ un enfant sur dix n’en parlerait à personne.

L’intégralité des résultats et l’ensemble des analyses se trouvent dans le BEE SECURE Radar 2026.

Découvrir le BEE SECURE Radar 2026.

Le 10 février 2026, c’est le Safer Internet Day (SID) – une journée d’action mondiale placée sous le signe de « Together for a better internet ». Au Luxembourg, BEE SECURE accompagne le SID avec différentes activités tout au long du mois de février – et organise avec des partenaires notamment au Kinepolis Luxembourg au Kirchberg deux événements importants : une conférence l’après-midi sur les bulles de filtres et la formation de l’opinion, puis un Movietalk en soirée spécialement destiné aux parents.

Conférence l’après-midi : bulles de filtres, opinion et théories du complot

Cette conférence se penche sur la manière dont les contenus en ligne façonnent notre perception et notre opinion – et sur les raisons pour lesquelles les personnes de plus de 50 ans peuvent, dans certaines situations, être particulièrement réceptives aux bulles de filtres. La conférence est organisée en collaboration avec GoldenMe et l’ULC.

Participation gratuite – sans inscription
L’enregistrement se fait uniquement sur place le 10.02.2026 à partir de 13 heures.

Horaire & déroulement (14h00 à 16h30)

  • 14h00 à 15h00 – Conférence / exposé d’impulsion
    Les expertes Sarah Pohl et Mirijam Wiedemann expliquent comment les bulles de filtres influencent les opinions et quels facteurs peuvent rendre les personnes de plus de 50 ans plus sensibles à ces mécanismes.
  • à partir de 15h15 – Table ronde & questions du public
    Thème : Comment réagir face à des personnes âgées prises dans des bulles de filtres et des théories du complot ?
    La discussion portera sur des pistes d’action concrètes dans l’entourage proche et sur ce que la société peut mettre en place.

Langue
Allemand avec traduction simultanée en français (casques disponibles).

Movietalk en soirée : film & échange pour les parents

En soirée, le Safer Internet Day s’adresse particulièrement aux parents. La projection d’un film est suivie d’un échange autour des expériences vécues par les jeunes en ligne et du rôle des adultes dans leur accompagnement.

Le Movietalk a lieu au même endroit et dans la même salle que la conférence de l’après-midi (Kinepolis au Kirchberg).

  • Programme : 19h30 projection – 20h50 échange et discussion – fin vers 21h30
  • Film : TKT (T’inquiète) (2024, version originale française, dès 14 ans)
  • Discussion : avec BEE SECURE, KJT et Police Luxembourg (discussion en luxembourgeois)
  • Avertissement : le film contient des scènes de harcèlement et aborde le suicide d’une adolescente.
  • Billets : les places gratuites sont complètes ; des billets payants sont disponibles chez Kinepolis.

Lieu

Kinepolis Luxembourg-Kirchberg
45, Avenue John F. Kennedy
L-1855 Kirchberg

Retrouvez toutes les informations et la vue d’ensemble de toutes les actions sur www.bee-secure.lu/sid2026

Au Luxembourg aussi, des enquêtes et arrestations ont régulièrement lieu en lien avec le phishing et le money muling. Ces affaires montrent clairement que la fraude en ligne ne concerne plus seulement des auteurs directs ou des victimes. Très souvent, des personnes supplémentaires sont impliquées comme intermédiaires, afin de dissimuler les flux financiers.

Que signifie le money muling ?

Le money muling consiste à mettre son compte bancaire, sa carte bancaire ou ses accès à l’e-banking à disposition pour faire transiter ou retirer de l’argent. En contrepartie, une petite « commission » ou un avantage rapide est souvent promis.

Derrière ces tâches apparemment simples se cache, dans de nombreux cas, du blanchiment d’argent. Les fonds proviennent généralement d’escroqueries – par exemple du phishing – et sont transférés via plusieurs comptes afin d’en masquer l’origine.

Il est important de le savoir : même une personne qui « rend service » ou « effectue seulement un virement » peut se retrouver confrontée à des conséquences juridiques et financières, comme le blocage du compte, des demandes de remboursement ou des difficultés durables avec sa banque.

Comment les personnes sont recrutées

Les approches ont lieu là où la communication est rapide et directe : sur les réseaux sociaux, via des messageries ou parfois dans l’entourage personnel. Les propositions paraissent souvent inoffensives et sont présentées comme un service, un petit boulot ou une aide ponctuelle. Parmi les phrases typiques, on retrouve par exemple :

  • « Tu dois juste recevoir l’argent et le transférer. »
  • « Retire-le et remets-le à quelqu’un. »
  • « Utilise ton compte ou ta carte – on t’explique tout. »
  • « C’est simple, n’en parle à personne. »

On observe souvent une combinaison de pression temporelle, de secret et de simplification. Ce mélange vise à faire baisser les barrières et à empêcher toute réflexion critique.

Pourquoi ces méthodes fonctionnent

Le money muling ne vise pas un groupe d’âge spécifique. Ce sont surtout certaines situations de vie qui jouent un rôle : insécurité financière, pression sociale, désir d’indépendance ou espoir d’une solution rapide.

Chaque étape prise isolément semble anodine, les risques sont sous-estimés ou le contexte global reste invisible. Les auteurs exploitent en outre des leviers émotionnels comme la confiance, l’entraide ou la peur de rater une opportunité.

La vulnérabilité n’est pas une faiblesse, mais une situation – et c’est précisément cela qui est exploité.

Signaux d’alerte typiques

Il est important d’être vigilant lorsque plusieurs des éléments suivants se cumulent :

  • Des entrées d’argent inexpliquées ou des mouvements d’espèces inhabituels
  • De nouveaux contacts qui instaurent très rapidement un climat de confiance
  • Des demandes de secret ou d’urgence
  • Des sollicitations concernant la carte bancaire, le code PIN, les TAN ou les accès à l’e-banking
  • Des phrases comme « C’est totalement légal » ou « Tu n’as rien à voir là-dedans »

Ce qui rend les discussions utiles

Que ce soit avec des jeunes ou des adultes, un échange factuel est essentiel – sans reproches ni leçons de morale.

Peuvent être utiles :

  • un principe clair : on ne partage jamais son compte bancaire, sa carte ou ses accès – même temporairement
  • une analyse commune des signaux d’alerte comme « rapide », « facile », « secret »
  • une phrase simple pour sortir d’une situation de pression, par exemple :
    « Non, je ne fais pas de transferts d’argent pour d’autres personnes. »

Que faire en cas de soupçon ?

  • Arrêter immédiatement : ne plus effectuer de virements ni de retraits.
  • Contacter la banque : faire bloquer la carte et les accès, vérifier le compte.
  • Conserver les preuves : discussions, virements, coordonnées des contacts.
  • Chercher du soutien : en cas de doute ou si la discussion est difficile, la BEE SECURE Helpline (8002 1234) propose un accompagnement confidentiel – y compris pour les adultes souhaitant aborder ce sujet de manière sensible.
  • Informer la police : en cas de tentatives de recrutement liées au money muling, il est également possible de contacter les autorités.

 

Les outils numériques font partie du quotidien scolaire – avec de nouvelles questions autour de la protection des données, du droit à l’image, de la communication et du rôle de modèle. Le guide a été révisé et est désormais disponible dans une version actualisée.

De quoi s’agit-il ?

Le guide propose des conseils concrets, des repères juridiques et des recommandations pratiques pour un usage responsable et sûr des outils numériques, à l’école comme en dehors, tout en renforçant la protection de la vie privée et l’e-réputation.

Ce que vous trouverez dans le guide

Notamment :

  • Droit à l’image et consentement dans le cadre scolaire

  • RGPD : stockage, partage et transfert de données/photos

  • Droit d’auteur pour l’utilisation de contenus tiers

  • Sécurisation des appareils et protection de la vie privée

  • Réseaux sociaux : image de soi, classe en ligne, risques (piratage/usurpation)

  • Prévention & réaction en cas d’incident (et limites de responsabilité)

Annexes

Le guide est complété par des check-lists et modèles (p. ex. code de conduite, check-list réseaux sociaux, annexes). Tout est disponible via la page de publication.

Le guide est désormais disponible en allemand et en français.

figure en bronze se cachant dans les buissons et qui regarde à travers des jumelles
pixabay.com

« J’ai un peu stalké ton profil » – on entend souvent ce genre de phrases. La plupart du temps, cela signifie simplement que quelqu’un a parcouru d’anciens posts par curiosité. Cela n’a pas grand-chose à voir avec le stalking au sens réel. Le stalking – en ligne ou hors ligne – est une forme de violence. Les personnes concernées se sentent observées en permanence, mises sous pression et fortement limitées dans leur manière de vivre.

Qu’est-ce que le stalking – et qu’est-ce que le cyberstalking ?

On entend par stalking un schéma obsessionnel et prolongé de menaces et de harcèlement, qui met en danger la sécurité de la victime et perturbe gravement sa tranquillité.

On parle de cyberstalking lorsque ce comportement se déroule principalement en ligne – par exemple via :

  • des messageries comme WhatsApp, Signal, Telegram ;
  • des réseaux sociaux (Instagram, TikTok, Snapchat, Facebook, X…) ;
  • des e-mails, SMS, appels, jeux et forums ;
  • des applications de traçage, des AirTags cachés ou d’autres dispositifs de géolocalisation.

De manière typique, la personne qui harcèle cherche à reprendre contact encore et encore, ignore les limites et veut contrôler la personne ciblée. Souvent, il s’agit de personnes de l’entourage : (ex-)partenaires, prétendu·e·s ami·e·s, collègues ou membres de la famille.

À quoi ressemble le cyberstalking en 2025 ?

Le cyberstalking peut prendre de nombreuses formes, par exemple :

  • une avalanche de messages et d’appels, y compris la nuit, alors que vous avez clairement dit ne plus vouloir de contact ;
  • des demandes constantes de localisation en direct, de mots de passe ou de captures d’écran de conversations ;
  • des insultes, menaces ou du chantage avec des images intimes (« sextorsion ») ;
  • la publication de votre adresse, numéro de téléphone, école/lieu de travail ou de photos (« doxxing ») ;
  • des faux profils à votre nom, par exemple sur des plateformes de rencontre ou sur les réseaux sociaux ;
  • l’espionnage discret de vos comptes, par exemple via des mots de passe interceptés ou des applications d’espionnage ;
  • la surveillance de votre localisation avec des traqueurs ou des applications cachées.

S’ajoutent de nouveaux développements, comme l’utilisation de la technologie deepfake pour générer des images intimes très réalistes et les diffuser.

Les conséquences sont souvent graves : agitation, troubles du sommeil, peur, honte, repli social, jusqu’à des dépressions ou des troubles de stress post-traumatique.

Comment vous protéger ?

Protéger vos appareils contre l’accès

Protégez vos appareils à la fois techniquement et physiquement :

  • Gardez le système d’exploitation, les applications et le navigateur à jour (mises à jour, pare-feu, antivirus).
  • Verrouillez votre ordinateur portable, smartphone et tablette lorsque vous les laissez sans surveillance, même brièvement (p. ex. café, bureau, école).
  • Si des personnes susceptibles de vous vouloir du mal ont été dans votre logement, vérifiez les ports USB de votre ordinateur : des clés inconnues ou de petits dispositifs pourraient s’y trouver (p. ex. des keyloggers enregistrant les frappes).

Mots de passe forts et authentification à deux facteurs

Utilisez des mots de passe sûrs et uniques, difficiles à deviner. Idéalement, utilisez un gestionnaire de mots de passe. Ne partagez vos mots de passe avec personne, même dans une relation. Donner l’accès à ses profils n’est pas une preuve d’amour – au contraire : demander ce type de contrôle est un signal d’alarme pouvant indiquer un comportement de contrôle ou de stalking.

Activez, si possible, l’authentification à deux facteurs (2FA). Ainsi, un mot de passe volé ne suffit pas à accéder à vos comptes.

Vérifier les paramètres de confidentialité

Vérifiez régulièrement les paramètres de confidentialité de vos comptes sur les réseaux sociaux. Les informations sensibles (adresse, lieu d’habitation, numéro de téléphone, école/lieu de travail) ne devraient pas être visibles publiquement. Limitez qui peut voir vos publications, stories, liste d’ami·e·s ou votre localisation.

Que faire si vous êtes concerné·e ?

Répondre clairement une fois – puis ne plus réagir

Si vous recevez des tentatives de contact non souhaitées, vous pouvez répondre une fois, poliment mais fermement, que vous ne souhaitez plus aucun contact. Ensuite, ne répondez plus – même si la personne provoque ou cherche à susciter la pitié.

Tout documenter

Ignorez les messages autant que possible, mais documentez chaque prise de contact :

  • captures d’écran de messages, profils, posts, commentaires ;
  • historiques de chat, e-mails, messages vocaux, listes d’appels sauvegardés ;
  • notes avec la date, l’heure et la plateforme utilisée.

Ne supprimez des contenus qu’après les avoir sauvegardés. Ces preuves sont très utiles pour une démarche de conseil, l’école/l’employeur ou la police.

Bloquer et rester vigilant·e face aux faux profils

Bloquez la personne qui harcèle dans les messageries, e-mails et réseaux sociaux. Soyez prudent·e avec les nouvelles demandes d’amitié : les auteurs tentent souvent de reprendre contact via des faux profils. Signalez ces profils à la plateforme concernée.

Situation juridique au Luxembourg (état fin 2025)

Au Luxembourg, le stalking est punissable en tant que « harcèlement obsessionnel » à l’article 442-2 du Code pénal. Est sanctionné quiconque harcèle une personne de manière répétée alors qu’il ou elle savait, ou aurait dû savoir, que cela porte gravement atteinte à la tranquillité de la victime. Peine : 15 jours à 2 ans d’emprisonnement et une amende de 251 à 3.000 euros. En règle générale, l’infraction n’est poursuivie que sur plainte de la victime.

Les cas de cyberstalking peuvent en plus relever d’autres dispositions, par exemple :

  • la loi sur la protection de la vie privée (11 août 1982) ;
  • la loi sur la diffamation et les propos portant atteinte à l’honneur (8 juin 2004) ;
  • des règles relatives à la protection des données, à la protection des mineurs, aux discours de haine ou à la cybercriminalité.

Depuis 2023, le Code du travail comporte également une section spécifique sur le « harcèlement moral » (mobbing) au travail. Le harcèlement numérique dans un contexte professionnel peut donc entraîner à la fois des conséquences en droit du travail et en droit pénal.

Une proposition de loi n° 8385 vise à créer une infraction distincte de « harcèlement moral numérique (cyberharcèlement) ». Fin 2025, ce projet est toutefois encore en procédure parlementaire et n’est donc pas encore en vigueur.

Demander de l’aide – vous n’êtes pas seul·e

N’hésitez pas à solliciter du soutien. Au Luxembourg, vous pouvez notamment contacter :

  • BEE SECURE Helpline (tél. 8002 1234 – gratuit et confidentiel)
  • Kanner Jugendtelefon (KJT) – tél. 116 111
  • SOS Détresse – tél. 454545

Si vous vous sentez menacé·e ou en danger immédiat, appelez le 113 (police) ou le 112.