Deepfakes IA : comment pouvons-nous protéger nos enfants ?

Author avatar

Brad Bartlett

|

Deepfakes

Dans un monde où la technologie progresse rapidement, les parents sont confrontés à de nouveaux défis pour protéger leurs enfants contre les menaces émergentes. L’une de ces préoccupations est la montée des deepfakes générés par l’IA – des médias synthétiques capables d’imiter les voix, les images et les vidéos de personnes réelles avec une précision alarmante.

Imaginez recevoir un appel téléphonique pénible de votre fille, implorant de l’aide alors que de dangereux criminels la kidnappent. C’est exactement ce qui est arrivé à Jennifer DeStefano de l’Arizona en janvier 2023. Terrifiée et désespérée de sauver son enfant, Jennifer a écouté avec horreur un homme menacer de faire du mal à sa fille si elle n’envoyait pas d’argent immédiatement.

Mais voici le rebondissement choquant : la fille de Jennifer n’a jamais été en danger. Elle profitait d’un voyage de ski en toute sécurité, inconsciente complètement de l’appel traumatisant. La voix que Jennifer a entendue n’était pas du tout celle de sa fille : il s’agissait d’un deepfake incroyablement réaliste généré par l’IA, conçu par des escrocs pour extorquer de l’argent à des parents sans méfiance.

Malheureusement, l’histoire de Jennifer n’est pas un incident isolé. À mesure que la technologie de l’IA devient plus sophistiquée, les criminels trouvent de nouveaux moyens de l’exploiter à des fins financières, ciblant souvent les familles vulnérables. Même les membres du Congrès le remarquent, explorer comment les deepfakes peuvent porter atteinte aux droits individuels et causer de graves dommages.

En tant que parents, il est essentiel que nous restions informés de ces menaces émergentes pour protéger nos enfants et nous-mêmes. Jetons un coup d’œil au monde des deepfakes d’IA : ce qu’ils sont, comment ils fonctionnent et, plus important encore, quelles mesures nous pouvons prendre pour protéger nos familles contre leur utilisation malveillante.

Même si les risques sont réels et préoccupants, notre objectif est de vous fournir des connaissances et des stratégies pratiques pour naviguer en toute confiance dans ce nouveau paysage.

Que sont les Deepfakes IA ?

Au cœur du phénomène des deepfakes se trouve une technologie puissante appelée IA générative. En termes simples, l’IA générative fait référence à des algorithmes d’intelligence artificielle capables de créer de nouveaux contenus – tels que des images, des vidéos, de l’audio ou du texte – sur la base de modèles tirés de données existantes.

Pour comprendre le fonctionnement de l’IA générative, imaginez un enfant apprenant à dessiner. Au fur et à mesure que l’enfant étudie divers exemples d’art, il commence à reconnaître des modèles communs, comme la façon dont les yeux, le nez et la bouche sont généralement disposés sur un visage. Avec la pratique, l’enfant apprend à combiner ces motifs de nouvelles façons pour créer ses propres dessins uniques.

L’IA générative fonctionne sur un principe similaire, mais à une échelle bien plus grande. En analysant de grandes quantités de données, ces algorithmes apprennent à identifier et à reproduire des modèles, ce qui leur permet de générer un nouveau contenu qui imite les données originales avec un réalisme saisissant.

Comment ces modèles d’IA se moquent-ils de vraies personnes ?

L’un des types d’IA générative les plus populaires s’appelle un réseau contradictoire génératif (GAN). Dans un GAN, deux modèles d’IA travaillent ensemble dans une sorte de compétition.

Un modèle, appelé leGénérateur, crée du nouveau contenu, tandis que l’autre modèle, connu sous le nom dediscriminateur, essaie de faire la distinction entre le contenu généré et les exemples réels. Au fur et à mesure que les modèles itèrent, le générateur apprend à créer un contenu de plus en plus convaincant qui peut tromper le discriminateur.

Vous pouvez imaginer que ce serait un outil puissant pour développer la technologie. Mais lorsqu’ils sont appliqués aux deepfakes, les algorithmes d’IA générative peuvent analyser rapidement des images, des vidéos et des enregistrements audio réels d’une personne pour connaître les modèles uniques de ses traits du visage, de ses expressions, de ses mouvements et de sa voix. L’IA alorsles usages ces informations apprises (comme l’enfant apprenant à copier et à dessiner des images) pour synthétiser un nouveau contenu qui imite fidèlement la personne d’origine.

Par exemple, pour créer une vidéo deepfake, l’algorithme d’IA pourrait étudier des images du visage d’une célébrité sous plusieurs angles et dans diverses conditions d’éclairage. En apprenant les subtilités des traits et des expressions du visage de la célébrité, l’IA peut ensuite générer de nouvelles images vidéo qui remplacent de manière transparente le visage de la personne d’origine par l’image de la célébrité.

Les algorithmes d’IA peuvent analyser les enregistrements de la voix d’une personne pour connaître les modèles distincts de son discours, notamment son ton, sa hauteur, son accent et ses manières. Avec suffisamment de données d’entraînement, l’IA peut alors synthétiser un nouveau contenu audio qui ressemble étrangement à la personne originale qui parle.

Quels sont les risques potentiels des deepfakes pour les enfants et les adolescents ?

En tant que parents, notre instinct est de protéger nos enfants des dangers, tant dans le monde physique que numérique. Cependant, avec la montée des deepfakes générés par l’IA, nous sommes confrontés à un nouvel ensemble de défis qui peuvent avoir de graves conséquences sur le bien-être, le développement et même la sécurité de nos enfants.

Exposition à du contenu inapproprié, trompeur ou dérangeant

À mesure que la technologie des deepfakes devient plus accessible, il est plus facile que jamais pour les mauvais acteurs de créer de fausses vidéos, images ou audio qui semblent réels de manière convaincante.

Imaginez, par exemple, un enfant tombant sur une vidéo deepfake qui semble montrer sa célébrité préférée se livrant à un comportement explicite ou violent. Ou imaginez une image deepfake qui représente une personnalité publique de confiance faisant des déclarations fausses ou incendiaires.

Même si les adultes peuvent voir le contenu tel qu’il est, les enfants peuvent devenir confus ou bouleversés lorsqu’ils voient l’inattendu de personnages de confiance.

Difficulté à distinguer le vrai du faux, conduisant à la confusion et aux fausses croyances

En tant qu’adultes, nous avons également du mal à distinguer le contenu authentique des faux générés par l’IA. Une étude récente ont découvert que les adultes interrogés étaient capables d’identifier un texte écrit créé par l’IA dans 57 % des cas, mais ne pouvaient distinguer les images de l’IA des images réelles que dans 53 % des cas.

Pour les enfants qui développent encore leur compréhension du monde et apprennent à naviguer dans des paysages informationnels complexes, ce défi est encore plus grand.

Lorsqu’ils sont exposés à des deepfakes, les enfants peuvent avoir du mal à faire la distinction entre ce qui est réel et ce qui est fabriqué. Au fil du temps, une exposition répétée à des deepfakes peut amener les enfants à intérioriser de fausses informations ou à développer des perceptions faussées de la réalité.

Potentiel de cyberintimidation, d’escroqueries et d’atteinte à la réputation grâce à la technologie Deepfake

Le plus alarmant peut-être est que les deepfakes peuvent être utilisés comme armes pour cibler directement les enfants. Les intimidateurs ou les agresseurs peuvent utiliser la technologie pour créer de faux contenus humiliants ou compromettants mettant en scène leurs victimes, par exemple en plaçant le visage d’un enfant sur le corps d’un adulte dans une image explicite. L’IA a été utilisée pour créer de fausses images de camarades de classe qui portent atteinte à la réputation et causent de graves dommages.

Érosion de la confiance dans les médias et les sources d’information

Nos enfants connaissent déjà un monde dans lequel voir n’est plus croire – et avec la montée en puissance des deepfakes de l’IA, les enfants pourraient développer une profonde méfiance à l’égard des médias et des sources d’information.

Alors qu’ils ont du mal à distinguer le vrai du faux, ils peuvent remettre en question la crédibilité de tous les contenus qu’ils rencontrent, même ceux provenant de sources réputées telles que les parents, les enseignants et les figures d’autorité.

Cette érosion de la confiance peut avoir des conséquences considérables sur le développement intellectuel et social des enfants. Cela peut conduire à une vision cynique du monde, dans laquelle les faits sont constamment mis en doute et les opinions sont davantage façonnées par la peur et la suspicion que par les preuves et la raison.

Conseils pour aider les enfants à identifier les deepfakes et le contenu généré par l’IA

Bien sûr, toutes les IA ne sont pas mauvaises ! L’IA a rendu plus facile que jamais la création de contenu éducatif sur un large éventail de sujets et a ouvert de nouvelles opportunités de créativité et d’expression. Cependant, la montée des deepfakes et autres contenus générés par l’IA signifie que les parents et les éducateurs doivent être plus vigilants que jamais pour aider les enfants à naviguer dans ce paysage médiatique complexe.

Voici quelques conseils pour aider les enfants à identifier et à comprendre les deepfakes et autres contenus générés par l’IA :

Recherchez les problèmes visuels et les incohérences

Expliquez aux enfants que même si les deepfakes peuvent être très convaincants, ils contiennent souvent de subtils problèmes visuels ou des incohérences. Même si l’IA parvient de mieux en mieux à les dissimuler, cela reste assez évident dans de nombreuses escroqueries et deepfakes très médiatisés.

Encouragez-les à regarder attentivement les vidéos ou les images à la recherche de signes de mouvements non naturels, d’éclairage incompatible ou de flou sur les bords des visages. Soulignez des exemples d’artefacts visuels, comme un scintillement ou une distorsion, qui peuvent indiquer un deepfake.

Faites attention aux signaux audio

Aidez les enfants à comprendre que le son deepfake peut sembler légèrement robotique, déformé ou contre nature. Encouragez-les à écouter attentivement les prononciations étranges, le ton de la voix incohérent ou les bruits de fond qui ne correspondent pas aux visuels.

Insistez sur l’importance de prendre en compte la qualité audio ainsi que les éléments visuels lors de l’évaluation de l’authenticité d’une vidéo ou d’un clip audio. Cela peut être plus difficile pour les jeunes enfants, mais les enfants plus âgés peuvent facilement savoir quand quelque chose ne va pas dans un contenu ou un média.

Vérifiez la source et les informations de référence croisée

Apprenez aux enfants à se méfier du contenu provenant de sources inconnues ou peu fiables. Encouragez-les à vérifier si le contenu apparaît sur des sites d’information réputés ou sur des chaînes officielles – et si c’est trop beau pour être vrai, c’est probablement le cas !

Montrez-leur comment croiser les informations en recherchant la même histoire ou la même revendication dans plusieurs sources fiables. Si une histoire ou une vidéo ne peut pas être vérifiée ailleurs, il peut s’agir d’un deepfake ou d’une désinformation.

Favoriser un état d’esprit curieux mais critique

La meilleure façon d’aider les enfants à comprendre la technologie des deepfakes est de favoriser un état d’esprit curieux. Encouragez les enfants à aborder le contenu en ligne avec une bonne dose de scepticisme curieux. Apprenez-leur à poser des questions telles que :

  • « Qui a créé ce contenu et pourquoi ? »
  • « Quelles preuves soutiennent cette affirmation ? »
  • « Est-ce que cela pourrait être un contenu deepfake ou manipulé ? »

 

Aidez-les à comprendre que ce n’est pas parce que quelque chose semble réel que cela l’est nécessairement. Insistez sur l’importance de vérifier les faits et de vérifier les informations avant de les accepter comme vraies.

Restez informé des dernières technologies deepfake

En tant que parent, restez au courant des dernières avancées en matière de technologie deepfake et des façons dont elle peut être utilisée à mauvais escient. Suivez les sources d’actualités technologiques réputées et les organisations de sécurité en ligne pour rester informé.

Lorsque cela est possible, essayez de partager des mises à jour et des exemples adaptés à l’âge de vos enfants pour les aider à comprendre l’évolution du paysage généré par l’IA et ses risques potentiels. Cela les aidera à se sentir mieux préparés à identifier et à gérer tout contenu douteux qu’ils rencontrent en ligne.

Enseignez l’engagement avec curiosité – pas avec peur

L’IA est là pour rester, et on peut affirmer sans se tromper que nos enfants grandiront probablement en en sachant plus que nous ! Mais cela ne change rien aux risques posés par des acteurs néfastes qui veulent s’attaquer aux populations vulnérables avec des outils puissants.

En enseignant aux enfants ces compétences pratiques et en encourageant un esprit critique, nous pouvons les aider à naviguer en toute confiance dans le monde des deepfakes et du contenu généré par l’IA.

N’oubliez pas que l’objectif n’est pas d’effrayer les enfants ou de les décourager d’utiliser la technologie, mais plutôt de leur donner les outils et les connaissances dont ils ont besoin pour rester en sécurité, informés et maîtres de leurs expériences en ligne. Lorsque nous pouvons les aider à développer une curiosité pour la technologie et ses capacités plutôt que la peur, nous pouvons les préparer à réussir dans le monde numérique.

Vous voulez en savoir plus sur les dernières technologies et sur la manière d’assurer la sécurité des enfants en ligne ? Consultez nos autres guides et ressources sur Kidslox – et prenez les mesures nécessaires pour créer un environnement d’apprentissage en ligne sûr et prospère pour votre famille.