AI deepfakes – як ми можемо захистити наших дітей?

Author avatar

Brad Bartlett

|

Deepfakes

У світі, де технології стрімко розвиваються, батьки стикаються з новими проблемами щодо захисту своїх дітей від нових загроз. Одним із таких занепокоєнь є зростання дипфейків, створених штучним інтелектом – синтетичних носіїв, які можуть імітувати голоси, зображення та відео реальних людей із тривожною точністю.

Уявіть, що ваша донька дзвонить неприємно, благаючи про допомогу, оскільки небезпечні злочинці викрадають її. Саме це сталося з Дженніфер ДеСтефано з Арізони в січні 2023 року. Налякана та відчайдушно намагаючись врятувати свою дитину, Дженніфер з жахом слухала, як чоловік погрожував завдати шкоди її доньці, якщо вона негайно не надішле гроші.

Але ось шокуючий поворот: дочка Дженніфер ніколи не була в небезпеці. Вона безпечно насолоджувалася лижною прогулянкою, абсолютно не підозрюючи про травматичний виклик. Голос, який почула Дженніфер, зовсім не належав її доньці – це був неймовірно реалістичний дипфейк, створений штучним інтелектом, створений шахраями, щоб вимагати гроші у батьків, які нічого не підозрюють.

На жаль, історія Дженніфер не поодинокий випадок. Оскільки технології штучного інтелекту стають все більш складними, злочинці знаходять нові способи використовувати їх для отримання фінансової вигоди, часто націлюючись на вразливі сім’ї. Навіть члени Конгресу звертають увагу, досліджуючи, як дипфейки можуть порушувати права особи та завдавати серйозної шкоди.

Нам, батькам, дуже важливо бути в курсі цих нових загроз, щоб захистити наших дітей і себе. Давайте поглянемо на світ дипфейків штучного інтелекту — що це таке, як вони працюють і, що найважливіше, які кроки ми можемо вжити, щоб захистити наші сім’ї від їх зловмисного використання.

Хоча ризики реальні та тривожні, наша мета — надати вам знання та практичні стратегії, щоб впевнено орієнтуватися в цьому новому ландшафті.

Що таке AI Deepfakes?

В основі явища deepfake лежить потужна технологія під назвою generative AI. Простими словами, генеративний штучний інтелект означає алгоритми штучного інтелекту, які можуть створювати новий вміст, наприклад зображення, відео, аудіо чи текст, на основі шаблонів, отриманих із наявних даних.

Щоб зрозуміти, як працює генеративний ШІ, уявіть дитину, яка вчиться малювати. Коли дитина вивчає різні приклади мистецтва, вона починає розпізнавати загальні шаблони, наприклад, як зазвичай розташовані очі, ніс і рот на обличчі. З практикою дитина вчиться комбінувати ці візерунки по-новому для створення власних унікальних малюнків.

Generative AI працює за схожим принципом, але в набагато більшому масштабі. Аналізуючи величезні масиви даних, ці алгоритми вчаться ідентифікувати та відтворювати шаблони, що дозволяє їм генерувати новий вміст, який імітує вихідні дані з вражаючою реалістичністю.

Як ці моделі ШІ знущаються над реальними людьми?

Один з найпопулярніших видів генеративного ШІ називається генеративна змагальна мережа (GAN). У GAN дві моделі ШІ працюють разом у своєрідному змаганні.

Одна модель під назвою theгенератор, створює новий вміст, тоді як інша модель, відома якдискримінатор, намагається відрізнити створений контент від реальних прикладів. Коли моделі повторюються, генератор вчиться створювати все більш переконливий контент, який може обдурити дискримінатора.

Ви можете собі уявити, що це буде потужний інструмент для розширення технології. Але в застосуванні до глибоких фейків генеративні алгоритми штучного інтелекту можуть швидко аналізувати реальні зображення, відео та аудіозаписи людини, щоб дізнатися унікальні моделі її обличчя, виразів, рухів і голосу. Тоді ШІвикористовує ця вивчена інформація (як дитина вчиться копіювати та малювати малюнки), щоб синтезувати новий вміст, який точно імітує оригінальну людину.

Наприклад, щоб створити глибоке фейкове відео, алгоритм штучного інтелекту може вивчати кадри обличчя знаменитості з різних ракурсів і в різних умовах освітлення. Вивчаючи тонкощі рис обличчя та виразу обличчя знаменитості, штучний інтелект може потім генерувати нові відеокадри, які плавно замінюють оригінальне обличчя людини на образ знаменитості.

Алгоритми штучного інтелекту можуть аналізувати записи голосу людини, щоб вивчати чіткі моделі її мовлення, включаючи тон, висоту, акцент і манери. Маючи достатньо тренувальних даних, штучний інтелект може синтезувати новий аудіовміст, який дивовижно нагадує оригінальну мову людини.

Які потенційні ризики дипфейків для дітей і підлітків?

Як батьки, ми прагнемо захистити своїх дітей від шкоди як у фізичному, так і в цифровому світі. Однак із зростанням кількості дипфейків, створених ШІ, ми стикаємося з новими проблемами, які можуть мати серйозні наслідки для добробуту, розвитку та навіть безпеки наших дітей.

Вплив неприйнятного, оманливого або тривожного вмісту

Оскільки технологія deepfake стає все доступнішою, зловмисникам легше, ніж будь-коли, створювати підроблені відео, зображення чи аудіо, які виглядають переконливо справжніми.

Уявіть, наприклад, дитину, яка наткнулася на глибоке фейкове відео, яке, здається, показує, як її улюблена знаменитість бере участь у відвертих або жорстоких вчинках. Або уявіть глибоке фейкове зображення, яке зображує довірену публічну особу, яка робить неправдиві чи підбурливі заяви.

У той час як дорослі можуть побачити вміст таким, яким він є, діти можуть збентежитись або засмутитися, побачивши несподіване від довірених персонажів.

Труднощі відрізнити справжнє від підробки, що призводить до плутанини та хибних переконань

Нам, дорослим, також важко відрізнити справжній вміст від підробок, створених ШІ. Недавнє дослідження виявили, що опитані дорослі можуть ідентифікувати письмовий текст, створений штучним інтелектом, у 57% випадків, але лише в 53% випадків можуть відрізнити штучні зображення від реальних.

Для дітей, які все ще розвивають своє розуміння світу та вчаться орієнтуватися в складних інформаційних ландшафтах, це завдання ще більше.

Коли діти стикаються з дипфейками, їм може бути важко розрізнити правду від вигадки. Згодом повторний вплив дипфейків може змусити дітей засвоїти неправдиву інформацію або розвинути спотворене сприйняття реальності.

Можливість кіберзалякування, шахрайства та шкоди репутації за допомогою Deepfake Tech

Можливо, найбільш тривожним є той факт, що дипфейки можуть використовуватися як зброя, спрямована безпосередньо на дітей. Хулігани або кривдники можуть використовувати цю технологію для створення принизливого або компрометуючого підробленого контенту із зображенням своїх жертв, наприклад, розміщувати обличчя дитини на тілі дорослого у відвертому зображенні. ШІ використовувався для створення підроблених зображень однокласників які шкодять репутації та завдають серйозної шкоди.

Підрив довіри до ЗМІ та джерел інформації

Наші діти вже знають світ, де більше не можна повірити побачити – і з появою глибоких фейків штучного інтелекту у дітей може виникнути глибока недовіра до ЗМІ та джерел інформації.

Коли їм важко відрізнити справжність від підробки, вони можуть сумніватися в достовірності всього вмісту, з яким вони стикаються, навіть із авторитетних джерел, таких як батьки, вчителі та авторитетні особи.

Така ерозія довіри може мати далекосяжні наслідки для інтелектуального та соціального розвитку дітей. Це може призвести до цинічного світогляду, де факти постійно викликають сумніви, а думки формуються більше страхом і підозрою, ніж доказами та розумом.

Поради, як допомогти дітям розпізнавати дипфейки та контент, створений ШІ

Звичайно, не весь ШІ поганий! ШІ зробив створення освітнього контенту з широкого кола тем легшим, ніж будь-коли, і відкрив нові можливості для творчості та самовираження. Однак зростання дипфейків та іншого контенту, створеного штучним інтелектом, означає, що батьки та вчителі повинні бути більш пильними, ніж будь-коли, щоб допомогти дітям орієнтуватися в цьому складному медіа-ландшафті.

Ось кілька порад, які допоможуть дітям розпізнавати та розуміти дипфейки та інший контент, створений ШІ:

Шукайте візуальні збої та невідповідності

Поясніть дітям, що хоча дипфейки можуть бути дуже переконливими, вони часто містять тонкі візуальні збої чи невідповідності. Незважаючи на те, що штучний інтелект все краще приховує це, це все ще досить очевидно в багатьох гучних шахрайствах і глибоких фейках.

Заохочуйте їх уважно дивитися на відео чи зображення на предмет ознак неприродних рухів, невідповідного освітлення чи розмиття по краях облич. Укажіть приклади візуальних артефактів, як-от мерехтіння або спотворення, які можуть вказувати на дипфейк.

Зверніть увагу на звукові сигнали

Допоможіть дітям зрозуміти, що глибоке підроблене аудіо може звучати дещо роботизовано, спотворено або неприродно. Заохочуйте їх уважно слухати дивну вимову, непослідовну висоту голосу чи фоновий шум, який не відповідає візуальному ефекту.

Підкресліть важливість розгляду якості звуку разом із візуальними елементами під час оцінки автентичності відео чи аудіокліпу. Дітям молодшого віку це може бути важче, але діти старшого віку можуть легко визначити, коли щось не подобається у вмісті чи медіа.

Перевірте джерело та інформацію про перехресні посилання

Навчіть дітей бути обережними щодо вмісту з невідомих або ненадійних джерел. Заохочуйте їх перевірити, чи з’являється вміст на авторитетних новинних сайтах або офіційних каналах – і якщо це занадто добре, щоб бути правдою, це, ймовірно, так!

Покажіть їм, як робити перехресні посилання на інформацію, шукаючи ту саму історію чи заяву в кількох надійних джерелах. Якщо історію або відео не можна перевірити в іншому місці, це може бути глибоким фейком або дезінформацією.

Виховуйте цікаве, але водночас критичне мислення

Найкращий спосіб допомогти дітям зрозуміти технологію deepfake — це виховувати допитливе мислення. Заохочуйте дітей ставитися до онлайн-контенту зі здоровою дозою цікавого скептицизму. Навчіть їх задавати такі запитання, як:

  • «Хто створив цей контент і навіщо?»
  • «Які докази підтверджують це твердження?»
  • «Чи може це бути дипфейком або маніпуляційним вмістом?»

 

Допоможіть їм зрозуміти, що те, що щось виглядає або звучить реально, не обов’язково означає, що це так. Підкресліть важливість перевірки фактів і перевірки інформації перед тим, як прийняти її за правдиву.

Будьте в курсі останніх технологій deepfake

Як батько, будьте в курсі останніх досягнень технології deepfake і способів її зловживання. Щоб бути в курсі, слідкуйте за авторитетними джерелами технічних новин і організаціями безпеки в Інтернеті.

Якщо це можливо, намагайтеся ділитися зі своїми дітьми новинами та прикладами, які відповідають їхньому віку, щоб допомогти їм зрозуміти зміну ландшафту контенту, створеного штучним інтелектом, і його потенційні ризики. Це допоможе їм почуватися краще підготовленими до виявлення та обробки будь-якого сумнівного вмісту, який вони зустрічають в Інтернеті.

Навчайте взаємодії з цікавістю, а не зі страхом

ШІ тут, щоб залишитися, і можна з упевненістю сказати, що наші діти, ймовірно, виростуть, знаючи про нього більше, ніж ми! Але це не змінює ризиків, створених нечесними діячами, які хочуть здобувати вразливі верстви населення за допомогою потужних інструментів.

Навчаючи дітей цим практичним навичкам і заохочуючи критичне мислення, ми можемо допомогти їм впевнено орієнтуватися у світі дипфейків і контенту, створеного ШІ.

Пам’ятайте, що мета полягає не в тому, щоб налякати дітей чи перешкодити їм працювати з технологіями, а радше надати їм інструменти та знання, необхідні для забезпечення безпеки, поінформованості та контролю над роботою в Інтернеті. Коли ми зможемо допомогти їм розвинути цікавість до технологій та їх можливостей, а не страх, ми зможемо налаштувати їх на успіх у цифровому світі.

Хочете дізнатися більше про новітні технології та про те, як захистити дітей в Інтернеті? Перегляньте наші інші посібники та ресурси на Kidslox – і зробіть кроки, щоб створити безпечне та успішне онлайн-навчальне середовище для вашої родини.