AI deepfakes – hvordan kan vi beskytte vores børn?

Author avatar

Brad Bartlett

|

Deepfakes

In een wereld waarin de technologie zich snel ontwikkelt, worden ouders geconfronteerd met nieuwe uitdagingen bij het beschermen van hun kinderen tegen opkomende bedreigingen. Eén van die zorgen is de opkomst van door AI gegenereerde deepfakes: synthetische media die de stemmen, afbeeldingen en video’s van echte mensen met alarmerende nauwkeurigheid kunnen nabootsen.

Stel je voor dat je een verontrustend telefoontje krijgt van je dochter, waarin ze om hulp smeekt terwijl gevaarlijke criminelen haar ontvoeren. Dat is precies wat er in januari 2023 met Jennifer DeStefano uit Arizona gebeurde. Doodsbang en wanhopig om haar kind te redden, luisterde Jennifer met afgrijzen toen een man dreigde haar dochter kwaad te doen als ze niet onmiddellijk geld stuurde.

Maar hier is de schokkende wending: Jennifers dochter is nooit in gevaar geweest. Ze genoot veilig van een skivakantie, zich totaal niet bewust van de traumatische roep. De stem die Jennifer hoorde was helemaal niet die van haar dochter – het was een verbluffend realistische, door AI gegenereerde deepfake, gemaakt door oplichters om geld af te persen van nietsvermoedende ouders.

Helaas staat het verhaal van Jennifer niet op zichzelf. Naarmate AI-technologie geavanceerder wordt, vinden criminelen nieuwe manieren om deze te exploiteren voor financieel gewin, waarbij ze zich vaak richten op kwetsbare gezinnen. Zelfs leden van het Congres merken het op, onderzoeken hoe deepfakes inbreuk kunnen maken op individuele rechten en ernstige schade kunnen veroorzaken.

Als ouders is het van cruciaal belang dat we op de hoogte blijven van deze opkomende bedreigingen om onze kinderen en onszelf te beschermen. Laten we eens kijken naar de wereld van AI-deepfakes: wat ze zijn, hoe ze werken en, belangrijker nog, welke stappen we kunnen nemen om onze gezinnen te beschermen tegen kwaadwillig gebruik ervan.

Hoewel de risico’s reëel en zorgwekkend zijn, is het ons doel om u te voorzien van kennis en praktische strategieën om met vertrouwen door dit nieuwe landschap te navigeren.

Wat zijn AI-deepfakes?

De kern van het deepfake-fenomeen ligt een krachtige technologie die generatieve AI wordt genoemd. In eenvoudige bewoordingen verwijst generatieve AI naar algoritmen voor kunstmatige intelligentie die nieuwe inhoud kunnen creëren – zoals afbeeldingen, video’s, audio of tekst – op basis van patronen die uit bestaande gegevens zijn geleerd.

Om te begrijpen hoe generatieve AI werkt, moet je je een kind voorstellen dat leert tekenen. Terwijl het kind verschillende voorbeelden van kunst bestudeert, begint het gemeenschappelijke patronen te herkennen, zoals hoe ogen, neuzen en monden doorgaans op een gezicht zijn gerangschikt. Door te oefenen leert het kind deze patronen op nieuwe manieren te combineren om zijn eigen unieke tekeningen te maken.

Generatieve AI werkt volgens een soortgelijk principe, maar op een veel grotere schaal. Door enorme hoeveelheden gegevens te analyseren, leren deze algoritmen patronen te identificeren en te repliceren, waardoor ze nieuwe inhoud kunnen genereren die de originele gegevens met opvallend realisme nabootst.

Hoe bespotten deze AI-modellen echte mensen?

Een van de meest populaire vormen van generatieve AI wordt genoemd een Generatief Tegenstrijdig Netwerk (GAN). In een GAN werken twee AI-modellen samen in een soort competitie.

Eén model, genaamd degenerator, creëert nieuwe inhoud, terwijl het andere model, bekend als dediscriminator, probeert onderscheid te maken tussen de gegenereerde inhoud en echte voorbeelden. Naarmate de modellen herhalen, leert de generator steeds overtuigender inhoud te creëren die de discriminator voor de gek kan houden.

Je kunt je voorstellen dat dit een krachtig hulpmiddel zou zijn om de technologie uit te breiden. Maar wanneer ze worden toegepast op deepfakes, kunnen generatieve AI-algoritmen snel echte afbeeldingen, video’s en audio-opnamen van een persoon analyseren om de unieke patronen van hun gelaatstrekken, uitdrukkingen, bewegingen en stem te leren kennen. De AI dantoepassingen deze aangeleerde informatie (zoals het kind leert kopiëren en tekenen) om nieuwe inhoud te synthetiseren die de oorspronkelijke persoon nauw nabootst.

Om bijvoorbeeld een deepfake-video te maken, kan het AI-algoritme beelden van het gezicht van een beroemdheid vanuit meerdere hoeken en onder verschillende lichtomstandigheden bestuderen. Door de fijne kneepjes van de gelaatstrekken en uitdrukkingen van de beroemdheid te leren kennen, kan de AI vervolgens nieuwe videoframes genereren die het gezicht van de oorspronkelijke persoon naadloos vervangen door de gelijkenis van de beroemdheid.

AI-algoritmen kunnen opnames van de stem van een persoon analyseren om de verschillende patronen van hun spraak te leren kennen, inclusief hun toon, toonhoogte, accent en maniertjes. Met voldoende trainingsgegevens kan de AI vervolgens nieuwe audio-inhoud synthetiseren die griezelig klinkt als de oorspronkelijke persoon die spreekt.

Wat zijn de potentiële risico’s van deepfakes voor kinderen en tieners?

Als ouders is het ons instinct om onze kinderen te beschermen tegen schade, zowel in de fysieke als de digitale wereld. Met de opkomst van door AI gegenereerde deepfakes worden we echter geconfronteerd met een nieuwe reeks uitdagingen die ernstige gevolgen kunnen hebben voor het welzijn, de ontwikkeling en zelfs de veiligheid van onze kinderen.

Blootstelling aan ongepaste, misleidende of verontrustende inhoud

Naarmate deepfake-technologie toegankelijker wordt, is het voor slechte acteurs gemakkelijker dan ooit om nepvideo’s, afbeeldingen of audio te maken die overtuigend echt lijken.

Stel je bijvoorbeeld voor dat een kind een deepfake-video tegenkomt waarin zijn favoriete beroemdheid expliciet of gewelddadig gedrag lijkt te vertonen. Of stel je een deepfake-afbeelding voor die een vertrouwd publiek figuur afbeeldt die valse of opruiende uitspraken doet.

Terwijl volwassenen de inhoud misschien kunnen zien voor wat het is, kunnen kinderen in de war raken of boos worden als ze het onverwachte zien van vertrouwde personages.

Moeilijkheden om echt van nep te onderscheiden, wat leidt tot verwarring en valse overtuigingen

Als volwassenen hebben we ook moeite om echte inhoud te onderscheiden van door AI gegenereerde vervalsingen. Een recente studie ontdekte dat de ondervraagde volwassenen in 57% van de gevallen geschreven tekst konden identificeren die door AI was gemaakt, maar slechts 53% van de tijd AI-afbeeldingen van echte konden onderscheiden.

Voor kinderen die hun begrip van de wereld nog aan het ontwikkelen zijn en leren navigeren door complexe informatielandschappen, is deze uitdaging zelfs nog groter.

Wanneer kinderen worden blootgesteld aan deepfakes, kunnen ze moeite hebben onderscheid te maken tussen wat echt is en wat verzonnen is. Na verloop van tijd kan herhaalde blootstelling aan deepfakes ertoe leiden dat kinderen valse informatie internaliseren of een vertekend beeld van de werkelijkheid ontwikkelen.

Potentieel voor cyberpesten, oplichting en reputatieschade met behulp van deepfake-technologie

Misschien wel het meest alarmerend is dat deepfakes kunnen worden ingezet om kinderen rechtstreeks te targeten. Pestkoppen of misbruikers kunnen de technologie gebruiken om vernederende of compromitterende nepinhoud te creëren waarin hun slachtoffers voorkomen, zoals het plaatsen van het gezicht van een kind op het lichaam van een volwassene in een expliciete afbeelding. AI is gebruikt om nepbeelden van klasgenoten te maken die de reputatie schaden en ernstige schade veroorzaken.

Erosie van vertrouwen in media en informatiebronnen

Onze kinderen kennen al een wereld waarin zien niet langer geloven is – en nu AI-deepfakes de overhand krijgen, kunnen kinderen een diep wantrouwen jegens media en informatiebronnen ontwikkelen.

Terwijl ze moeite hebben om echt van nep te onderscheiden, kunnen ze de geloofwaardigheid van alle inhoud die ze tegenkomen in twijfel trekken, zelfs van gerenommeerde bronnen zoals ouders, leraren en gezagsdragers.

Deze erosie van vertrouwen kan verstrekkende gevolgen hebben voor de intellectuele en sociale ontwikkeling van kinderen. Het kan leiden tot een cynisch wereldbeeld, waarin feiten voortdurend in twijfel worden getrokken en meningen meer door angst en achterdocht worden gevormd dan door bewijs en rede.

Tips om kinderen te helpen deepfakes en door AI gegenereerde inhoud te identificeren

Zeker, niet alle AI is slecht! AI heeft het creëren van educatieve inhoud over een breed scala aan onderwerpen eenvoudiger dan ooit gemaakt en nieuwe mogelijkheden voor creativiteit en expressie geopend. De opkomst van deepfakes en andere door AI gegenereerde inhoud betekent echter dat ouders en docenten waakzamer dan ooit moeten zijn bij het helpen van kinderen bij het navigeren door dit complexe medialandschap.

Hier zijn enkele tips om kinderen te helpen deepfakes en andere door AI gegenereerde inhoud te identificeren en te begrijpen:

Zoek naar visuele fouten en inconsistenties

Leg kinderen uit dat deepfakes weliswaar heel overtuigend kunnen zijn, maar dat ze vaak subtiele visuele fouten of inconsistenties bevatten. Hoewel de AI deze steeds beter kan verbergen, is dit nog steeds vrij duidelijk zichtbaar in veel spraakmakende oplichting en deepfakes.

Moedig ze aan om video’s of afbeeldingen goed te bekijken op tekenen van onnatuurlijke bewegingen, niet-passende verlichting of onscherpte rond de randen van gezichten. Wijs op voorbeelden van visuele artefacten, zoals flikkering of vervorming, die op een deepfake kunnen duiden.

Besteed aandacht aan audiosignalen

Help kinderen begrijpen dat deepfake-audio enigszins robotachtig, vervormd of onnatuurlijk kan klinken. Moedig ze aan om aandachtig te luisteren naar vreemde uitspraken, inconsistente stemhoogte of achtergrondgeluiden die niet overeenkomen met de beelden.

Benadruk het belang van het in aanmerking nemen van de audiokwaliteit naast de visuele elementen bij het beoordelen van de authenticiteit van een video- of audiofragment. Dit kan moeilijker zijn voor jongere kinderen, maar oudere kinderen kunnen gemakkelijk merken wanneer iets ‘niet goed’ voelt aan een stuk inhoud of media.

Controleer de bron- en kruisverwijzingsinformatie

Leer kinderen voorzichtig te zijn met inhoud uit onbekende of onbetrouwbare bronnen. Moedig ze aan om te controleren of de inhoud op gerenommeerde nieuwssites of officiële kanalen verschijnt – en als het te mooi is om waar te zijn, is dat waarschijnlijk ook het geval!

Laat ze zien hoe ze naar informatie kunnen verwijzen door naar hetzelfde verhaal te zoeken of in meerdere vertrouwde bronnen te claimen. Als een verhaal of video niet elders kan worden geverifieerd, kan er sprake zijn van deepfake of verkeerde informatie.

Stimuleer een nieuwsgierige, maar kritische mentaliteit

De beste manier om kinderen te helpen deepfake-technologie te begrijpen, is door een nieuwsgierige mentaliteit te bevorderen. Moedig kinderen aan om online-inhoud te benaderen met een gezonde dosis nieuwsgierige scepsis. Leer ze vragen te stellen als:

  • “Wie heeft deze inhoud gemaakt en waarom?”
  • “Welk bewijs ondersteunt deze bewering?”
  • “Zou dit deepfake of gemanipuleerde inhoud kunnen zijn?”

 

Help ze begrijpen dat het feit dat iets er echt uitziet of klinkt, niet noodzakelijkerwijs betekent dat het ook zo is. Versterk het belang van het controleren van feiten en het verifiëren van informatie voordat deze als waar wordt geaccepteerd.

Blijf op de hoogte van de nieuwste deepfake-technologie

Blijf als ouder op de hoogte van de nieuwste ontwikkelingen op het gebied van deepfake-technologie en de manieren waarop deze kan worden misbruikt. Volg gerenommeerde technische nieuwsbronnen en online veiligheidsorganisaties om op de hoogte te blijven.

Probeer indien mogelijk updates en voorbeelden die bij hun leeftijd passen met uw kinderen te delen, zodat ze inzicht krijgen in het evoluerende landschap van door AI gegenereerde inhoud en de potentiële risico’s ervan. Hierdoor voelen ze zich beter voorbereid om twijfelachtige inhoud die ze online tegenkomen te identificeren en af ​​te handelen.

Leer betrokkenheid met nieuwsgierigheid – niet met angst

AI is een blijvertje en het is veilig om te zeggen dat onze kinderen er waarschijnlijk meer over zullen weten dan wij! Maar dat verandert niets aan de risico’s van snode actoren die met krachtige middelen kwetsbare bevolkingsgroepen willen aanvallen.

Door kinderen deze praktische vaardigheden bij te brengen en een kritische mentaliteit aan te moedigen, kunnen we hen helpen met vertrouwen door de wereld van deepfakes en door AI gegenereerde inhoud te navigeren.

Vergeet niet dat het doel niet is om kinderen bang te maken of hen te ontmoedigen om met technologie om te gaan, maar om hen te voorzien van de tools en kennis die ze nodig hebben om veilig, geïnformeerd en in controle te blijven over hun online ervaringen. Als we ze kunnen helpen nieuwsgierigheid te ontwikkelen naar technologie en de mogelijkheden ervan in plaats van angst, kunnen we ze voorbereiden op succes in de digitale wereld.

Wilt u meer weten over de nieuwste technologie en hoe u kinderen online veilig kunt houden? Bekijk onze andere handleidingen en bronnen op Kidslox – en neem de stappen om een ​​veilige en bloeiende online leeromgeving voor uw gezin te creëren.