Дослідницькі роботи і проєкти

Проєкт "Кіберщит: як розпізнати та захиститися від ШІ-маніпуляцій в Інтернеті"

| sveta
Рейтинг: 2
Як розпізнати ШІ та дипфейк
Тематика:
Автор роботи:
Дякович Маркіян
Керівник:
Бойко Андрій Романович
Навчальний заклад:
Київський Ліцей "Нова"
Клас:
11

В процесі роботи над дослідницьким проєктом з інформатики "Кіберщит як розпізнати та захиститися від ШІ-маніпуляцій в мережі Інтернеті" учень 11 класу знайомиться з різними видами ШІ-контенту. В проєкті вивчаються техніки перевірки інформації: фактчекінг, зворотний пошук зображень, аналіз джерел, а також пояснюються принципи безпечного спілкування онлайн та захисту персональних даних і профілю.

Докладніше про проєкт:


Головною метою дослідницької роботи з інформатики про кіберщит та захист від ШІ-маніпуляцій в Інтернеті учень 11 класу ставить розпізнання ознак ШІ-маніпуляцій та дипфейків, усвідомлення небезпеки онлайн-контенту та виявлення способів захисту, розвиток відповідальності, цифрової грамотності і навичок фактчекінгу.

Матеріал навчального дослідницького проєкту може бути корисним для розпізнання фейків, дипфейків та алгоритмів впливу, а також іншого створеного штучним інтелектом контенту. Робота буде корисною як для молодших школярів — щоб сформувати перші навички безпечної поведінки онлайн, так і для підлітків — щоб навчити критично мислити, розпізнавати фейки, уникати шахрайства і кіберризиків. Також для старшокласників — щоб підготувати до самостійної взаємодії з інформацією, соцмережами та цифровими технологіями.

Зміст

Вступ

  1. Що "під капотом"? Як працює технологія брехні
  2. Види ШІ-загроз: Це не тільки смішні картинки
  3. Моє міні-дослідження: "Чи легко обдурити школяра?"
  4. "Детективне агентство": Як розпізнати фейк (Детальний гайд)
  5. Правила "Цифрової фортеці"
  6. Словничок термінів (Для тих, хто в танку)

Висновок
Використані джерела.

Вступ

Чому я обрав цю тему? Чесно кажучи, я спочатку думав взяти щось про віруси чи історію інтернету. Але потім стрічка новин підкинула мені відео, де Ілон Маск нібито рекламує якусь сумнівну криптобіржу. Виглядало це на 100% реально: голос, міміка, манера говорити. Я майже повівся. А потім виявилося, що це діпфейк. Тоді я зрозумів: ми живемо у світі, де "бачити" більше не означає "вірити". Наші батьки вчили нас не відкривати двері незнайомцям, а тепер нам треба вчитися не відкривати посилання від "знайомих", які насправді можуть бути цифровими клонами. Це реально страшно і цікаво водночас.

Мета дослідження: Не просто налякати однокласників, що "кругом вороги", а дати конкретні інструменти. Я хочу, щоб після мого проєкту кожен міг глянути на фейкове фото і сказати: "Ага, ось тут нейромережа домалювала зайвий палець, мене не проведеш".

Задачі проєкту:

  • розібратися, як працюють нейромережі;
  • провести власне міні-дослідження "Чи легко обдурити школяра?";
  • скласти чек-лист на що звертати увагу, щоб розпізнати фейк;
  • скласти правила "Цифрової фортеці" для захисту від шахрайства;
  • зробити висновки та скласти словничок термінів.

Предмет дослідження: ШІ-маніпуляції в Інтернеті.

Об'єкт дослідження: ознаки розпізнання та засоби захисту від ШІ-маніпуляцій (дипфейків) в Інтернеті.

1. Що "під капотом"? Як працює технологія брехні

Нейронна мережа (або штучна нейромережа) — це математична модель і програмна система, створена за аналогією з роботою людського мозку. Її головна мета — навчитися аналізувати дані, знаходити приховані закономірності та робити прогнози. Основу такої мережі становлять штучні нейрони — маленькі обчислювальні елементи, які передають сигнали один одному та спільно виконують складні завдання.


Штучна нейромережа містить велику кількість взаємопов’язаних нейронів, організованих у шари: вхідний, кілька прихованих та вихідний. Кожен нейрон отримує інформацію, обробляє її та передає далі.

Завдяки цьому мережа здатна самостійно «вчитися» — під час тренування вона поступово коригує свої внутрішні параметри, щоб точніше розпізнавати зразки в даних. Саме така здатність до навчання робить нейромережі корисними у багатьох сферах: від розпізнавання зображень і голосу до перекладу текстів, медицини, прогнозування та створення нових зображень чи музики.

Таким чином, нейромережа — це не просто програма, а гнучка система, яка може накопичувати досвід, адаптуватися до нової інформації та виконувати завдання, що раніше були доступні лише людині.

Ключові особливості нейромережі:

  • складається з шарів: вхідного, прихованих та вихідного;
  • навчається на даних шляхом корекції ваг зв’язків між нейронами;
  • здатна узагальнювати інформацію та робити прогнози;
  • використовується в задачах класифікації, прогнозування, розпізнавання зображень, аналізу тексту та багатьох інших.

Generative Adversarial Networks (GANs) — це тип нейромереж, які здатні створювати нові дані, дуже схожі на справжні (зображення, відео, музику, текст).

GAN складається з двох нейромереж, які змагаються одна з одною:

  1. Generator (генератор). Створює підроблені дані — наприклад, зображення облич, яких не існує.
  2. Discriminator (дискримінатор). Намагається відрізнити, що справжнє (взято з реальних даних), а що — згенероване.

Як вони працюють

  • Генератор намагається “обдурити” дискримінатор — робить якомога правдоподібні фейки.
  • Дискримінатор тренується розпізнавати підробки.
  • Обидві мережі постійно вдосконалюються.

Це схоже на гру між:

  • художником, який малює картину,
  • експертом, який визначає, справжня це картина чи ні.

Чим довше вони змагаються, тим краще художник малює.

Навіщо це потрібно?

GAN використовують для:

  • створення реалістичних зображень і відео,
  • генерації облич, яких не існує,
  • стилізації фото (перетворити фото на картину),
  • покращення якості зображень,
  • генерування музики чи тексту,
  • створення deepfake.

Щоб боротися з ворогом, треба знати, як він думає. Я трохи розібрався, як працюють ці нейромережі (Generative Adversarial Networks — GAN).

Уявіть собі двох учнів:

  1. Генератор (Учень А): Намагається підробити підпис вчителя в щоденнику.
  2. Дискримінатор (Учень Б): Дивиться на підпис і каже: "Ні, не схоже, переробляй" або "О, вірю!".

Вони тренуються мільйони разів. Спочатку "підпис" виходить жахливим, але з кожною спробою Учень А малює краще, а Учень Б стає прискіпливішим. Врешті-решт виходить ідеальна підробка, яку не відрізнити від оригіналу. Так створюються обличчя людей, яких не існує.

2. Види ШІ-загроз: це не тільки смішні картинки

Взагалі виділяють такі види ШІ-загроз:


1. Технічні загрози.
Це ризики, пов’язані з роботою самих моделей або їхньою надійністю.
  • Халюцинації ШІ.
    ШІ може вигадувати факти, створювати помилкову інформацію або робити неправильні висновки.
  • Вразливість моделей. Моделі можуть бути обмануті шкідливими вхідними даними або неправильно реагувати на нестандартні ситуації.
  • Витік даних. Модель може ненавмисно “запам’ятати” й відтворити конфіденційні дані, на яких її тренували.

2. Кібербезпекові загрози.
Пов’язані з тим, що ШІ може посилювати можливості злочинців.

  • Фішинг та соціальна інженерія з використанням ШІ. Автоматичне створення переконливих шахрайських повідомлень, deepfake-голосів чи відео.
  • Автоматизація атак. Зловмисники можуть використовувати ШІ для пошуку вразливостей або прискорення атак.
  • Deepfake-загрози. Підробка голосів, облич, відео для шахрайства або маніпуляцій.

3. Інформаційні та суспільні загрози

  • Маніпуляція громадською думкою. Створення масового контенту, фейкових новин, бот-мереж, дезінформації.
  • Підрив довіри до інформації. Через реалістичні підробки важко відрізнити правду від фейку.

4. Етичні та соціальні ризики

  • Упередженість моделей (bias). ШІ може відтворювати або посилювати дискримінаційні патерни, якщо тренувався на упереджених даних.
  • Непрозорість роботи (“чорна скринька”). Складно пояснити, чому модель прийняла певне рішення.
  • Вплив на ринок праці. Автоматизація може змінювати роботу цілих професій.

5. Загрози безпеці критичних систем

Коли ШІ використовується в:

  • транспорті (автопілоти),
  • медицині,
  • енергетиці,
  • військових системах,
  • помилки або неправильні рішення можуть мати серйозні наслідки.

6. “Екзистенційні” або довгострокові ризики

Гіпотетичні ризики надпотужних систем:

  • втрата контролю над ШІ,
  • небезпечні цілі, сформовані системою,
  • некоректне узгодження цілей (misalignment).

Я розділив загрози на три рівні небезпеки:

Рівень 1: "По приколу" (Розважальний контент). Сюди входить той самий Папа Римський у пуховику Balenciaga або Гаррі Поттер у стилі Balenciaga. Ризик: Мінімальний, але це привчає нас до думки, що будь-яке фото може бути несправжнім.

Рівень 2: "Інфошум" (Фейкові новини). Приклад: фото вибуху біля Пентагону, яке завірусилося у Твіттері. Через це фото фондовий ринок США просів на кілька хвилин! Люди втратили реальні гроші через картинку, яку намалював ШІ. Ризик: Паніка, хаос, неправильні рішення.

Рівень 3: "Цифрове викрадення" (Шахрайство та булінг). Найнебезпечніша категорія.

  • Vishing (Voice Phishing): Шахраї беруть 10 секунд вашого голосу з Instagram-сторіз, генерують прохання "скинь 5000 грн на карту" і розсилають друзям у Telegram.
  • Порно-діпфейки: Це жахлива тема, коли обличчя дівчат (навіть школярок) накладають на відео для дорослих. Це використовують для шантажу та булінгу.

3. Моє міні-дослідження: "Чи легко обдурити школяра?"

Я провів експеримент у своєму класі.
Я взяв 5 фотографій: 2 справжні фото людей і 3 згенеровані на сайті https://this-person-does-not-exist.com/en

Я попросив 15 однокласників вгадати, хто з цих людей справжній.

Результати мене шокували:

  • Тільки 3 людини з 15 вгадали правильно всі фото.
  • Більшість (60%) вибрали згенероване фото як "найбільш реальне", тому що воно виглядало ідеальним.
  • Це доводить: ми підсвідомо віримо красивій картинці і не шукаємо підступу.

4. "Детективне агентство": Як розпізнати фейк (детальний гайд)


Я склав чек-лист, на що звертати увагу. Зберігайте собі:

А. Візуальні "глюки" (Артефакти):

  1. Руки — це біль ШІ. Часто буває 6 пальців, або вони ростуть з ліктя. Хоча нові версії (типу Midjourney v6) вже вчаться малювати краще, помилки все ще є.
  2. Текст на фоні. Якщо на задньому плані є вивіски чи написи, ШІ пише там якусь абракадабру, схожу на інопланетну мову.
  3. Аксесуари. Окуляри можуть бути різної форми, сережки — різні на лівому і правому вусі.
  4. Шкіра. Вона часто занадто гладка, "пластикова", без природних пор чи зморшок.

Б. Логічні помилки:

  1. Тіні та світло. Сонце світить зліва, а тінь падає наліво? Це фейк. Фізику ШІ поки що знає погано.
  2. Емоція. У діпфейк-відео обличчя може виражати радість, а очі залишаються холодними.

В. Перевірка інструментами: Не обов'язково бути експертом. Можна використати:

  • Google Images (Пошук за картинкою): Закиньте підозріле фото туди. Якщо це фото з'явилося вперше вчора на якомусь ноунейм сайті — це підозріло.
  • AI or Not: Є сайти (хоч і не ідеальні), які намагаються визначити вірогідність генерації.

Як розпізнати дипфейк

5. Правила "Цифрової фортеці"

Що робити, щоб не стати жертвою (особливо голосового шахрайства)?

  1. Сімейний пароль. Це порада №1. Домовтеся з батьками про слово (наприклад, кличка першого кота або улюблена страва). Якщо дзвонить "ти" і просить гроші/допомогу — хай питають пароль. ШІ його не знає.
  2. Критичне мислення. Якщо тобі дзвонять з незнайомого номера і тиснуть на емоції ("Швидше, мама в лікарні!", "Терміново скинь на карту!"), поклади слухавку і передзвони сам.
  3. Приватність. Зробіть свої акаунти закритими. Чим менше вашого біометричного матеріалу (фото, голос) у вільному доступі, тим складніше шахраям.
  4. Не поширюй, якщо не впевнений. Побачив новину, яка викликає злість? Не репости зразу. Почекай офіційного підтвердження. Часто фейки живуть тільки завдяки нашим емоційним репостам.

6. Словничок термінів (для тих, хто в танку)

Термін Коротке визначення
Нейромережа (Neural Network) Комп’ютерна система, яка “вчиться” на даних та імітує роботу мозку.
Дипфейк (Deepfake) Відео, де обличчя однієї людини замінено на інше за допомогою ШІ.
Фішинг (Phishing) Спроба виманити ваші паролі чи гроші через підроблені сайти/повідомлення.
Артефакти: Помилки на зображенні (зайві пальці, розмитість), які виказують роботу нейромережі.
Модель ШІ (AI Model) Програма, натренована виконувати певне завдання: писати текст, малювати, перекладати, прогнозувати.
Галюцинації ШІ (AI Hallucinations) Коли ШІ вигадує факти або відповідає впевнено, хоча помиляється.
Промпт (Prompt) Ваш запит або інструкція, яку ви даєте ШІ.
Промптінг (Prompting) Процес "управління" ШІ через правильне формулювання запитів.
Генеративний ШІ (Generative AI) Моделі, які створюють новий контент: зображення, відео, музику, текст.

Висновок

У ході дослідницького проєкту з інформатики було досліджено, як працюють нейромережі та чому вони відіграють важливу роль у сучасному цифровому середовищі. Проведене міні-дослідження «Чи легко обдурити школяра?» показало, що учні можуть бути вразливими до фейкових зображень і маніпулятивного контенту, особливо створеного за допомогою ШІ. Саме тому ми розробили практичний чек-лист для розпізнавання фейків, який допомагає критично оцінювати інформацію та виявляти ознаки підробок.

Також були сформовані правила «Цифрової фортеці» — набір простих, але ефективних рекомендацій, що підвищують особисту цифрову безпеку та захищають від інтернет-шахрайства. Створений словничок термінів уточнює важливі поняття й допомагає краще орієнтуватися у світі сучасних технологій.

Отже, виконання проєкту дозволило не лише поглибити знання про ШІ, а й сформувати практичні навички медіаграмотності та цифрової безпеки, які є необхідними для відповідального та безпечного користування інтернетом.

В результаті роботи в 11 класі над проєктом на тему "Кіберщит як розпізнати та захиститися від ШІ-маніпуляцій в Інтернеті" я зрозумів, що ми стоїмо на порозі нової ери. Скоро ми будемо дивитися фільми, де актори давно померли, але грають як живі. Ми будемо спілкуватися з ботами, не розуміючи, що це не люди. Штучний інтелект — це потужна сила. Але, як казали в "Людині-павуку": "З великою силою приходить велика відповідальність".

Моя думка така: не треба боятися ШІ. Треба просто перестати бути наївними користувачами і ставати свідомими. Довіряй, але перевіряй — це найкращий девіз для 2024 року.

Використані джерела

  1. Статті з TechCrunch та The Verge про розвиток Generative AI.
  2. Відео на YouTube про розпізнавання діпфейків.
  3. Власний досвід та спостереження у соцмережах.


Нові проєкти і роботи
Навчальні програми
Банер сайту
Сайт Дослідники містить дослідницькі роботи і творчі проєкти дітей України, теми міні-проєктів з предметів, правила і вимоги оформлення для учнів і вихованців.
Будемо дуже вдячні, якщо встановите наш банер!

Дослідники - дослідницькі роботи і проєкти дітей України
Код банера:

<a href="https://doslidnyky.com" target="_blank" title="Дослідники"> <img src="https://doslidnyky.com/banners/baner-b200x67a.png" width="200" height="67" border="0" alt="Дослідники"></a>

Інші наші банери ...