in , , , , , ,

Як може бути використаний ChatGPT у відносинах війні

Як може бути використаний ChatGPT у відносинах війні

Щоб розібратися, чи може бути використаний у війні проти України та як цього не допустити, а також якою є роль AI під час воєнних дій, DOU поспілкувався з CEO DevRain Олександром Краковецьким, фахівцем з кібербезпеки Костянтином Корсуном та CTO Master of Code Global Богданом Сергієнком.

Як ChatGPT можуть використати у війні проти України

CEO DevRain Олександр Краковецький вважає, що будь-яку технологію можна використати як на благо, так і на шкоду, зокрема і ChatGPT. Основний ризик полягає в тому, що чат-бот може швидко й у великій кількості генерувати правдоподібні тексти, які насправді міститимуть фейкову інформацію.

З цього випливає кілька потенційних небезпек:

  • Розсилання фішингових повідомлень. ChatGPT можна буде використовувати для ІПСО та соціального інжинірингу, суть якого — дізнатись приватну чи конфіденційну інформацію на кшталт паролів чи розміщення військової техніки. Можна буде навчити модель писати тексти, як конкретна людина, а в комбінації зі згенерованим візуальним і аудіоконтентом ворогу буде ще простіше досягати своїх цілей.
  • Генерація пропагандистського контенту. Оскільки створення контенту стає простим і швидким, то кількість пропаганди може суттєво збільшитись. З урахуванням того, що модель працює з багатьма мовами, такий контент стане простіше і швидше поширювати в різних країнах.
  • Збільшення часу на фактчекінг. Що професійніше написаний текст (без граматичних помилок, друкарських хиб тощо), то більше потрібно часу на його перевірку. Це може завадити якісній протидії, наприклад, ІПСО.

Краковецький зауважує, що «знання» ChatGPT обмежуються даними до 2021 року включно, що теж грає на руку росіянам.

«Тому на питання „чий Крим?“ модель відповідає, як людина, для якої щонайменше „не все так однозначно“. Про війну з рф модель знає суто в контексті АТО. Таким чином, люди, які ставитимуть чат-боту питання про війну, отримуватимуть неоднозначну відповідь. А це нам не на користь», — каже айтівець.

Краковецький вважає, що фейки чи ІПСО успішно існують і без штучного інтелекту, але той здатен підвищити їхню якість.

«Звісно, коли публікується щось на кшталт „підлога країни“ чи „немає сечі терпіти ці борошна“, то тут все зрозуміло. Використання штучного інтелекту підвищить мінімальну якість фейків, які видаватимуться доволі правдивими», — каже він.

На думку фахівця, люди вже стикалися зі схожим викликом. До Photoshop будь-яке фото вважалось оригінальним, адже підробити його було доволі важко. Але з появою цієї програми і її масовим використанням зʼявилося розуміння, що будь-яке зображення може виявитись підробленим. Те саме зараз відбувається з текстом.

«Кожен має бути готовим до того, що будь-яку інформацію потрібно спочатку перевірити. А доки це не стало нашою звичкою, багато хто ризикує бути ошуканим», — застерігає Краковецький.

Натомість фахівець з кібербезпеки Костянтин Корсун вважає, що можливості штучного інтелекту дещо переоцінені. На його думку, ChatGPT робить забагато елементарних помилок.

«Більше це скидається на наступний крок розвитку пошукових систем. Нові алгоритми нейромережі, навчені високоінтелектуальними людьми, вміють шукати та систематизувати наявну у світі інформацію значно швидше за нинішні пошуковики, але що поки лише в небагатьох і досить вузьких галузях. Проблема в тому, що у світі багато неперевіреної, неповної, сумнівної, повністю хибної або свідомо брехливої інформації, яку може „спожити“ під час навчання нейромережа», — зауважує Корсун.

Він вважає, що відрізнити сумнівної якості інформацію від правдивої інтуїтивно можуть більшість людей, які здатні критично мислити. Водночас для сучасного штучного інтелекту все це — лише інформація, яку він швидко збирає та формує у красиві тексти.

«Так, буває, що відрізнити правду від професійно розробленої брехні доволі непросто навіть освіченим людям. Наприклад, російська пропаганда, ІПСО, спеціальні інформаційні операції. Вже кілька років як стало буденністю поняття deep fake. Але на нинішній стадії розвитку штучного інтелекту дезінформація та фейки все ж програють у середньо- та довгостроковій перспективі. Доволі швидко з’ясовується, що доказів викладеній інформації немає, а фотографія чи голос на записі — сфальсифіковані. У цьому критичний недолік будь-якої брехні — вона живе недовго», — вважає фахівець з кібербезпеки.

Проте Корсун погоджується з думкою, що з розвитком технологій штучного інтелекту та машинного навчання нас очікує нова фаза розвитку інформаційних війн. Тож людство буде змушене адаптуватися під нові виклики, перевіряти інформацію через 2–3 альтернативних джерела, знаходити надійні ресурси й повсякчас критично аналізувати інформацію.

Як не допустити негативного впливу ChatGPT

Олександр Краковецький вважає, що держава має діяти на випередження.

«Як би це смішно не звучало, але має бути щось на кшталт ДП „Укрфейкспростування“ чи „Дія.Фейки“, що працюватимуть 24/7 та визначатимуть і реагуватимуть на всю серйозну дезінформацію. Моніторинг соціальних мереж чітко покаже, хто і коли запостив фейк, хто його поширив тощо», — каже він.

Фахівець вважає, що тут можна використати той самий штучний інтелект, зокрема для ідентифікації шкідливих наративів, фейкових шаблонів в автоматичному режимі. Це дасть змогу миттєво реагувати на загрозу й усувати її.

«Я вже кілька років розповідаю про те, що треба створити посади „технологічних послів“ у великих компаніях на кшталт Microsoft, Google, Apple, Facebook. Це мають бути люди з бездоганною репутацією і технологічним бекграундом, які налагоджуватимуть співпрацю з корпораціями й доноситимуть необхідні Україні наративи. Разові зустрічі міністра цифрової трансформації і офіційні листи — це, звісно, добре, але будь-яка важлива справа вимагає системного підходу», — підкреслює Краковецький.

Як ще ШІ використовують у війні

Нещодавно трагедію у Дніпрі проілюстрували згенерованим ШІ малюнком, дуже схожим на справжнє фото дитини.

На думку Краковецького, ця ситуація викликала низку питань, над якими варто замислитись:

  • Чи етично зображати реальну трагедію гарним, але все ж фейковим малюнком?
  • Як навчити людей відрізняти фейки від реальних знімків?
  • Чому звичайні користувачі соцмереж не видаляють фейкові повідомлення навіть тоді, коли дізнались про їхню несправжність?

Фахівець вважає, що це лише початок ери генеративних моделей, і вже невдовзі їхня якість не відрізнятиметься від справжніх фото.

«Єдиним способом дізнатись, чи фото справжнє, буде проганяти його через AI-детектори або перевіряти умовний „цифровий підпис“, який вказуватиме на реальність чи штучність походження. Але хто це робитиме в часи, коли новина „живе“ кілька годин, а то й хвилин?» — коментує Краковецький.

Втім штучний інтелект у війні використовують не лише росіяни, а й українська армія. Можна виокремити кілька прикладів такого використання:

Богдан Сергієнко, CTO в Master of Code Global, розповідає, що найчастіше штучний інтелект використовує під час війни саме розвідка для розпізнавання та ідентифікації об’єктів (ворожих солдатів, воєнної техніки тощо).

На його думку, основна перевага штучного інтелекту — це економія часу людини, оскільки з ним військовим не потрібно самостійно шукати та порівнювати об’єкти.

Водночас пошук ворожої цілі не можна повністю делегувати AI, оскільки ця інформація критично важлива для перебігу військових операцій і супутні ризики будуть занадто високими в разі помилки.

«Коли я десь чую, що безпілотник самостійно знаходить ціль — це виглядає як дуже обмежене використання AI, коли ми впевнені, що наші військові в разі помилки не постраждають. Штучний інтелект і рішення на його основі можна застосовувати суто як допоміжний інструмент, асистент для людини, яка ухвалює рішення», — стверджує Сергієнко.

В інформаційній площині AI використовують і для фільтрування небажаного контенту.

«Наприклад, бот UA Anti Spam Bot автоматично видаляє коментарі в соцмережах з небезпечними згадками координат „прильотів“, блокпостів або переміщення воєнної техніки ЗСУ. Також наша команда працює зараз над тим, щоб автоматично видаляти в соцмережах коментарі з наративами російської пропаганди», — розповідає CTO Master of Code Global.

За публікаціями у ЗМІ.

Рейтинг публікації

Коментарі

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Loading…

0

Щодо роз’яснення понять «службова особа» та «посадова особа»

Верховний Суд перевірив в межах доводів та вимог касаційної скарги, які стали підставою для відкриття касаційного провадження