Проєкт "Кіберщит: як розпізнати та захиститися від ШІ-маніпуляцій в Інтернеті"
В процесі роботи над дослідницьким проєктом з інформатики "Кіберщит як розпізнати та захиститися від ШІ-маніпуляцій в мережі Інтернеті" учень 11 класу знайомиться з різними видами ШІ-контенту. В проєкті вивчаються техніки перевірки інформації: фактчекінг, зворотний пошук зображень, аналіз джерел, а також пояснюються принципи безпечного спілкування онлайн та захисту персональних даних і профілю.
Докладніше про проєкт:
Головною метою дослідницької роботи з інформатики про кіберщит та захист від ШІ-маніпуляцій в Інтернеті учень 11 класу ставить розпізнання ознак ШІ-маніпуляцій та дипфейків, усвідомлення небезпеки онлайн-контенту та виявлення способів захисту, розвиток відповідальності, цифрової грамотності і навичок фактчекінгу.
Матеріал навчального дослідницького проєкту може бути корисним для розпізнання фейків, дипфейків та алгоритмів впливу, а також іншого створеного штучним інтелектом контенту. Робота буде корисною як для молодших школярів — щоб сформувати перші навички безпечної поведінки онлайн, так і для підлітків — щоб навчити критично мислити, розпізнавати фейки, уникати шахрайства і кіберризиків. Також для старшокласників — щоб підготувати до самостійної взаємодії з інформацією, соцмережами та цифровими технологіями.
Зміст
Вступ
- Що "під капотом"? Як працює технологія брехні
- Види ШІ-загроз: Це не тільки смішні картинки
- Моє міні-дослідження: "Чи легко обдурити школяра?"
- "Детективне агентство": Як розпізнати фейк (Детальний гайд)
- Правила "Цифрової фортеці"
- Словничок термінів (Для тих, хто в танку)
Висновок
Використані джерела.
Вступ
Чому я обрав цю тему? Чесно кажучи, я спочатку думав взяти щось про віруси чи історію інтернету. Але потім стрічка новин підкинула мені відео, де Ілон Маск нібито рекламує якусь сумнівну криптобіржу. Виглядало це на 100% реально: голос, міміка, манера говорити. Я майже повівся. А потім виявилося, що це діпфейк. Тоді я зрозумів: ми живемо у світі, де "бачити" більше не означає "вірити". Наші батьки вчили нас не відкривати двері незнайомцям, а тепер нам треба вчитися не відкривати посилання від "знайомих", які насправді можуть бути цифровими клонами. Це реально страшно і цікаво водночас.
Мета дослідження: Не просто налякати однокласників, що "кругом вороги", а дати конкретні інструменти. Я хочу, щоб після мого проєкту кожен міг глянути на фейкове фото і сказати: "Ага, ось тут нейромережа домалювала зайвий палець, мене не проведеш".
Задачі проєкту:
- розібратися, як працюють нейромережі;
- провести власне міні-дослідження "Чи легко обдурити школяра?";
- скласти чек-лист на що звертати увагу, щоб розпізнати фейк;
- скласти правила "Цифрової фортеці" для захисту від шахрайства;
- зробити висновки та скласти словничок термінів.
Предмет дослідження: ШІ-маніпуляції в Інтернеті.
Об'єкт дослідження: ознаки розпізнання та засоби захисту від ШІ-маніпуляцій (дипфейків) в Інтернеті.
1. Що "під капотом"? Як працює технологія брехні
Нейронна мережа (або штучна нейромережа) — це математична модель і програмна система, створена за аналогією з роботою людського мозку. Її головна мета — навчитися аналізувати дані, знаходити приховані закономірності та робити прогнози. Основу такої мережі становлять штучні нейрони — маленькі обчислювальні елементи, які передають сигнали один одному та спільно виконують складні завдання.
Штучна нейромережа містить велику кількість взаємопов’язаних нейронів, організованих у шари: вхідний, кілька прихованих та вихідний. Кожен нейрон отримує інформацію, обробляє її та передає далі.
Завдяки цьому мережа здатна самостійно «вчитися» — під час тренування вона поступово коригує свої внутрішні параметри, щоб точніше розпізнавати зразки в даних. Саме така здатність до навчання робить нейромережі корисними у багатьох сферах: від розпізнавання зображень і голосу до перекладу текстів, медицини, прогнозування та створення нових зображень чи музики.
Таким чином, нейромережа — це не просто програма, а гнучка система, яка може накопичувати досвід, адаптуватися до нової інформації та виконувати завдання, що раніше були доступні лише людині.
Ключові особливості нейромережі:
- складається з шарів: вхідного, прихованих та вихідного;
- навчається на даних шляхом корекції ваг зв’язків між нейронами;
- здатна узагальнювати інформацію та робити прогнози;
- використовується в задачах класифікації, прогнозування, розпізнавання зображень, аналізу тексту та багатьох інших.
Generative Adversarial Networks (GANs) — це тип нейромереж, які здатні створювати нові дані, дуже схожі на справжні (зображення, відео, музику, текст).
GAN складається з двох нейромереж, які змагаються одна з одною:
- Generator (генератор). Створює підроблені дані — наприклад, зображення облич, яких не існує.
- Discriminator (дискримінатор). Намагається відрізнити, що справжнє (взято з реальних даних), а що — згенероване.
Як вони працюють
- Генератор намагається “обдурити” дискримінатор — робить якомога правдоподібні фейки.
- Дискримінатор тренується розпізнавати підробки.
- Обидві мережі постійно вдосконалюються.
Це схоже на гру між:
- художником, який малює картину,
- експертом, який визначає, справжня це картина чи ні.
Чим довше вони змагаються, тим краще художник малює.
Навіщо це потрібно?
GAN використовують для:
- створення реалістичних зображень і відео,
- генерації облич, яких не існує,
- стилізації фото (перетворити фото на картину),
- покращення якості зображень,
- генерування музики чи тексту,
- створення deepfake.
Щоб боротися з ворогом, треба знати, як він думає. Я трохи розібрався, як працюють ці нейромережі (Generative Adversarial Networks — GAN).
Уявіть собі двох учнів:
- Генератор (Учень А): Намагається підробити підпис вчителя в щоденнику.
- Дискримінатор (Учень Б): Дивиться на підпис і каже: "Ні, не схоже, переробляй" або "О, вірю!".
Вони тренуються мільйони разів. Спочатку "підпис" виходить жахливим, але з кожною спробою Учень А малює краще, а Учень Б стає прискіпливішим. Врешті-решт виходить ідеальна підробка, яку не відрізнити від оригіналу. Так створюються обличчя людей, яких не існує.
2. Види ШІ-загроз: це не тільки смішні картинки
Взагалі виділяють такі види ШІ-загроз:
1. Технічні загрози.
Це ризики, пов’язані з роботою самих моделей або їхньою надійністю.
- Халюцинації ШІ.
ШІ може вигадувати факти, створювати помилкову інформацію або робити неправильні висновки. - Вразливість моделей. Моделі можуть бути обмануті шкідливими вхідними даними або неправильно реагувати на нестандартні ситуації.
- Витік даних. Модель може ненавмисно “запам’ятати” й відтворити конфіденційні дані, на яких її тренували.
2. Кібербезпекові загрози.
Пов’язані з тим, що ШІ може посилювати можливості злочинців.
- Фішинг та соціальна інженерія з використанням ШІ. Автоматичне створення переконливих шахрайських повідомлень, deepfake-голосів чи відео.
- Автоматизація атак. Зловмисники можуть використовувати ШІ для пошуку вразливостей або прискорення атак.
- Deepfake-загрози. Підробка голосів, облич, відео для шахрайства або маніпуляцій.
3. Інформаційні та суспільні загрози
- Маніпуляція громадською думкою. Створення масового контенту, фейкових новин, бот-мереж, дезінформації.
- Підрив довіри до інформації. Через реалістичні підробки важко відрізнити правду від фейку.
4. Етичні та соціальні ризики
- Упередженість моделей (bias). ШІ може відтворювати або посилювати дискримінаційні патерни, якщо тренувався на упереджених даних.
- Непрозорість роботи (“чорна скринька”). Складно пояснити, чому модель прийняла певне рішення.
- Вплив на ринок праці. Автоматизація може змінювати роботу цілих професій.
5. Загрози безпеці критичних систем
Коли ШІ використовується в:
- транспорті (автопілоти),
- медицині,
- енергетиці,
- військових системах,
- помилки або неправильні рішення можуть мати серйозні наслідки.
6. “Екзистенційні” або довгострокові ризики
Гіпотетичні ризики надпотужних систем:
- втрата контролю над ШІ,
- небезпечні цілі, сформовані системою,
- некоректне узгодження цілей (misalignment).
Я розділив загрози на три рівні небезпеки:
Рівень 1: "По приколу" (Розважальний контент). Сюди входить той самий Папа Римський у пуховику Balenciaga або Гаррі Поттер у стилі Balenciaga. Ризик: Мінімальний, але це привчає нас до думки, що будь-яке фото може бути несправжнім.
Рівень 2: "Інфошум" (Фейкові новини). Приклад: фото вибуху біля Пентагону, яке завірусилося у Твіттері. Через це фото фондовий ринок США просів на кілька хвилин! Люди втратили реальні гроші через картинку, яку намалював ШІ. Ризик: Паніка, хаос, неправильні рішення.
Рівень 3: "Цифрове викрадення" (Шахрайство та булінг). Найнебезпечніша категорія.
- Vishing (Voice Phishing): Шахраї беруть 10 секунд вашого голосу з Instagram-сторіз, генерують прохання "скинь 5000 грн на карту" і розсилають друзям у Telegram.
- Порно-діпфейки: Це жахлива тема, коли обличчя дівчат (навіть школярок) накладають на відео для дорослих. Це використовують для шантажу та булінгу.
3. Моє міні-дослідження: "Чи легко обдурити школяра?"
Я провів експеримент у своєму класі.
Я взяв 5 фотографій: 2 справжні фото людей і 3 згенеровані на сайті https://this-person-does-not-exist.com/en
Я попросив 15 однокласників вгадати, хто з цих людей справжній.
Результати мене шокували:
- Тільки 3 людини з 15 вгадали правильно всі фото.
- Більшість (60%) вибрали згенероване фото як "найбільш реальне", тому що воно виглядало ідеальним.
- Це доводить: ми підсвідомо віримо красивій картинці і не шукаємо підступу.
4. "Детективне агентство": Як розпізнати фейк (детальний гайд)
Я склав чек-лист, на що звертати увагу. Зберігайте собі:
А. Візуальні "глюки" (Артефакти):
- Руки — це біль ШІ. Часто буває 6 пальців, або вони ростуть з ліктя. Хоча нові версії (типу Midjourney v6) вже вчаться малювати краще, помилки все ще є.
- Текст на фоні. Якщо на задньому плані є вивіски чи написи, ШІ пише там якусь абракадабру, схожу на інопланетну мову.
- Аксесуари. Окуляри можуть бути різної форми, сережки — різні на лівому і правому вусі.
- Шкіра. Вона часто занадто гладка, "пластикова", без природних пор чи зморшок.
Б. Логічні помилки:
- Тіні та світло. Сонце світить зліва, а тінь падає наліво? Це фейк. Фізику ШІ поки що знає погано.
- Емоція. У діпфейк-відео обличчя може виражати радість, а очі залишаються холодними.
В. Перевірка інструментами: Не обов'язково бути експертом. Можна використати:
- Google Images (Пошук за картинкою): Закиньте підозріле фото туди. Якщо це фото з'явилося вперше вчора на якомусь ноунейм сайті — це підозріло.
- AI or Not: Є сайти (хоч і не ідеальні), які намагаються визначити вірогідність генерації.

5. Правила "Цифрової фортеці"
Що робити, щоб не стати жертвою (особливо голосового шахрайства)?
- Сімейний пароль. Це порада №1. Домовтеся з батьками про слово (наприклад, кличка першого кота або улюблена страва). Якщо дзвонить "ти" і просить гроші/допомогу — хай питають пароль. ШІ його не знає.
- Критичне мислення. Якщо тобі дзвонять з незнайомого номера і тиснуть на емоції ("Швидше, мама в лікарні!", "Терміново скинь на карту!"), поклади слухавку і передзвони сам.
- Приватність. Зробіть свої акаунти закритими. Чим менше вашого біометричного матеріалу (фото, голос) у вільному доступі, тим складніше шахраям.
- Не поширюй, якщо не впевнений. Побачив новину, яка викликає злість? Не репости зразу. Почекай офіційного підтвердження. Часто фейки живуть тільки завдяки нашим емоційним репостам.
6. Словничок термінів (для тих, хто в танку)
| Термін | Коротке визначення |
|---|---|
| Нейромережа (Neural Network) | Комп’ютерна система, яка “вчиться” на даних та імітує роботу мозку. |
| Дипфейк (Deepfake) | Відео, де обличчя однієї людини замінено на інше за допомогою ШІ. |
| Фішинг (Phishing) | Спроба виманити ваші паролі чи гроші через підроблені сайти/повідомлення. |
| Артефакти: | Помилки на зображенні (зайві пальці, розмитість), які виказують роботу нейромережі. |
| Модель ШІ (AI Model) | Програма, натренована виконувати певне завдання: писати текст, малювати, перекладати, прогнозувати. |
| Галюцинації ШІ (AI Hallucinations) | Коли ШІ вигадує факти або відповідає впевнено, хоча помиляється. |
| Промпт (Prompt) | Ваш запит або інструкція, яку ви даєте ШІ. |
| Промптінг (Prompting) | Процес "управління" ШІ через правильне формулювання запитів. |
| Генеративний ШІ (Generative AI) | Моделі, які створюють новий контент: зображення, відео, музику, текст. |
Висновок
У ході дослідницького проєкту з інформатики було досліджено, як працюють нейромережі та чому вони відіграють важливу роль у сучасному цифровому середовищі. Проведене міні-дослідження «Чи легко обдурити школяра?» показало, що учні можуть бути вразливими до фейкових зображень і маніпулятивного контенту, особливо створеного за допомогою ШІ. Саме тому ми розробили практичний чек-лист для розпізнавання фейків, який допомагає критично оцінювати інформацію та виявляти ознаки підробок.
Також були сформовані правила «Цифрової фортеці» — набір простих, але ефективних рекомендацій, що підвищують особисту цифрову безпеку та захищають від інтернет-шахрайства. Створений словничок термінів уточнює важливі поняття й допомагає краще орієнтуватися у світі сучасних технологій.
Отже, виконання проєкту дозволило не лише поглибити знання про ШІ, а й сформувати практичні навички медіаграмотності та цифрової безпеки, які є необхідними для відповідального та безпечного користування інтернетом.
В результаті роботи в 11 класі над проєктом на тему "Кіберщит як розпізнати та захиститися від ШІ-маніпуляцій в Інтернеті" я зрозумів, що ми стоїмо на порозі нової ери. Скоро ми будемо дивитися фільми, де актори давно померли, але грають як живі. Ми будемо спілкуватися з ботами, не розуміючи, що це не люди. Штучний інтелект — це потужна сила. Але, як казали в "Людині-павуку": "З великою силою приходить велика відповідальність".
Моя думка така: не треба боятися ШІ. Треба просто перестати бути наївними користувачами і ставати свідомими. Довіряй, але перевіряй — це найкращий девіз для 2024 року.
Використані джерела
- Статті з TechCrunch та The Verge про розвиток Generative AI.
- Відео на YouTube про розпізнавання діпфейків.
- Власний досвід та спостереження у соцмережах.

Код банера:
