IA : l’évolution de la cyberintimidation
Amanda Lee
Conseillère principale, Programmes, Technologies pour l’avenir🅪 et TELUS Averti🅫
Selon un sondage de Statistique Canada mené auprès de 13 000 jeunes Canadiens âgés de 12 à 17 ans, un jeune sur quatre a été victime de cyberintimidation, avec des conséquences sévères sur leur santé mentale. Avec l’arrivée de l’intelligence artificielle générative, la cyberintimidation et le potentiel de préjudices qui en découlent connaissent une hausse marquée.
Comment pouvez-vous informer les jeunes qui vous entourent, leur faire comprendre les risques associés à la cyberintimidation par intelligence artificielle et leur enseigner à utiliser cette technologie émergente de façon sécuritaire et responsable?
Qu’est-ce que l’IA générative?
La technologie d’IA générative tire parti d’algorithmes pour créer des images, des vidéos, de la musique ou du texte. Elle est nourrie par de grandes banques de données pour analyser, comprendre et interpréter le côté unique de tout élément. Elle crée ensuite quelque chose de nouveau qui reflète ce qu’elle a appris.
ChatGPT, un programme d’IA et de traitement du langage naturel créé par OpenAI, en est un excellent exemple. Un utilisateur pourrait poser une question sur l’histoire de TELUS Averti à l’application, et voir celle-ci générer une réponse qui aurait l’air d’avoir été écrite par une vraie personne.
Bien que l’IA générative représente un grand potentiel pour la créativité, elle permet également aux gens d’avoir une plus grande portée en ligne, en conjuguant rapidité et anonymat.
La cyberintimidation amplifiée
Selon le Cyberbullying Research Center, « l’intelligence artificielle générative permet de créer automatiquement des messages, des courriels, des publications ou des commentaires harcelants et menaçants sur une grande variété de plateformes et d’interfaces, puis de les diffuser en un clin d’œil. » Voici des exemples :
- Cyberimposture (ou catfishing) : processus consistant à former une relation avec une personne en utilisant les renseignements et les images d’une autre personne pour créer un personnage fictif ou une fausse identité.
- Hypertrucage (deepfake) : fichier vidéo ou audio modifié par ordinateur et produit par l’IA qui présente généralement l’image et la voix d’une personne dans une situation qui ne s’est pas réellement produite.
- Dogpiling : avalanche de commentaires hostiles ou négatifs concernant une personne ou une chose provenant d’un grand nombre de personnes.
Avant l’avènement de l’IA, les harceleurs en ligne devaient rédiger leurs publications et leurs messages eux-mêmes. Ils n’étaient pas anonymes et pouvaient être réprimandés pour leurs actions. À l’heure actuelle, ce n’est plus nécessairement le cas. Les possibilités d’automatisation qui découlent de l’intelligence artificielle ont changé la portée, la gravité et la rapidité avec lesquelles la cyberintimidation peut proliférer et causer du tort.
Un fait encore plus inquiétant : la capacité d’apprentissage de l’IA générative, qui peut causer des abus en ligne encore plus graves. Encore selon le Cyberbullying Research Center, l’IA générative peut « analyser les publications sur les médias sociaux, les activités en ligne et les renseignements personnels d’une personne pour générer des messages hautement personnalisés et menaçants. Elle arrive à créer du contenu qui fait référence à des endroits, des événements ou des détails précis sur une personne pour rendre le harcèlement encore plus personnel et intimidant. » Tout ça en quelques minutes.
Certes, cette technologie peut intensifier la cyberintimidation, mais elle peut également être utilisée pour lutter contre ce fléau. À cet égard, voici trois façons de tirer parti de l’IA pour combattre la cyberintimidation :
- Des algorithmes peuvent être utilisés pour déceler des comportements peu naturels en ligne, ce qui comprend la fréquence de publication de contenu et la présence répétée de sentiments précis.
- En ciblant les bons éléments, l’IA peut détecter l’auteur, les victimes et les participants, puis fournir des renseignements qui permettront aux parents et aux enseignants d’intervenir.
- Le fait de comprendre d’où vient le problème peut les aider à soutenir les jeunes et à leur expliquer comment éviter qu’une telle situation se reproduise à l’avenir.
Parler aux jeunes
Patricia Thane, présidente et chef de la direction de Private AI, a écrit un excellent article dans Forbes au sujet de l’IA générative et de la sécurité des enfants, et qui met l’accent sur la cyberintimidation. À son avis, il nous « incombe collectivement de guider les jeunes qui utilisent un téléphone intelligent », afin qu’ils puissent tirer parti de technologies comme l’IA générative de façon sécuritaire et éthique.
Comment pouvez-vous aider les jeunes qui vous entourent à profiter de la créativité et des possibilités associées à l’IA générative tout en atténuant les risques connexes?
- Favorisez l’expérimentation : la meilleure façon de montrer aux jeunes à quel point l’IA générative peut facilement mener à la cyberintimidation est de les laisser expérimenter cette technologie d’une façon positive. Prenez le temps de créer des images, des textes et des vidéos avec eux. Évaluez leurs réactions et posez-leur des questions hypothétiques qui les feront réfléchir à la puissance de ce qu’ils ont sous la main.
- Protégez vos données : il n’a jamais été aussi important de faire attention à ce que vous et vos enfants publiez et partagez en ligne. Toutes vos publications, photos et vidéos et tous vos commentaires pourraient être utilisés par une personne qui souhaite tirer parti négativement de l’IA générative.
- Faites preuve d’ouverture et soyez honnête : demandez aux jeunes qui vous entourent ce qu’ils savent à propos de la cyberintimidation et de l’IA générative. Est-ce qu’ils en parlent entre eux? Ont-ils vu à quoi ça ressemble? Connaissent-ils quelqu’un qui en a été victime? Est-ce un sujet de conversation à l’école? En demeurant ouvert à la discussion, vous pouvez les aider à cerner les instances de cyberintimidation et faire en sorte qu’ils soient à l’aise d’en parler s’ils en sont témoins ou victimes.
À TELUS, nous savons que la compréhension de l’IA est une partie intégrante de la littératie numérique. C’est pourquoi nous avons mis sur pied un atelier sur l’utilisation responsable de l’intelligence artificielle, en collaboration avec l’Institut canadien de recherches avancées. L’atelier en ligne est offert gratuitement en français et en anglais et porte sur l’utilisation responsable de l’IA, l’éthique connexe et la pensée critique. Il est de notre devoir de soutenir les jeunes Canadiens dans l’utilisation sécuritaire et responsable de cette technologie émergente.