in , , ,

Можливий перший позов проти штучного інтелекту…

 

Олена Стойко

Швидке поширення мовних застосунків на основі штучного інтелекту (ШІ) уже ставить перед юристами нові питання, що потребують негайної відповіді. Так мер австралійського міста може подати перший у світі позов проти штучного інтелекту за неправдиву інформацію, що видає користувачам мовний застосунок на основі ШІ ChatGPT. На початку 2000-х років нинішній мер Б. Гуд брав участь у розкритті спроби підкупу іноземцями банківських працівників заради отримання контрактів на друк грошових знаків від Резервного банку Австралії. Однак ChatGPT на запит видає абсолютно протилежну інформацію: Б. Гуд визнав себе винним у хабарництві та корупції й був засуджений до тюремного ув’язнення. Його адвокати заявили, що надіслали власнику ChatGPT – компанії OpenAI лист, в якому вимагають припинити поширювати неправду, або ж через місяць вони звернуться до суду з позовом про наклеп. Тобто це, ймовірно, буде першим випадком, коли людина позиватиметься проти штучного інтелекту.

Цей випадок є одним з низки недавніх прикладів, коли чат-боти зі штучним інтелектом публікують сфальсифіковану інформацію про реальних людей. Так американський професор Дж. Терлі був записаний чат-ботом у список викладачів-юристів, обвинувачених у сексуальних домаганнях. ChatGPT видає користувачам інформацію, що професор робив коментарі сексуального характеру і намагався доторкнутися до студентки під час екскурсії на Аляску, посилаючись на статтю в The Washington Post за березень 2018 року як на джерело інформації. Однак такої статті видання ніколи не публікувало, а Дж. Терлі ніколи не їздив зі студентами на Аляску і не отримував звинувачень у сексуальних домаганнях.

Широке використання мовних чат-ботів відкриває нові можливості для поширення дезінформації: моделі на основі ШІ можуть легко спотворювати ключові факти і навіть фабрикувати посилання на фальшиві першоджерела для підтвердження своїх тверджень. Сучасні чат-боти зі штучним інтелектом працюють, спираючись на величезні масиви онлайн-контенту для створення правдоподібних відповідей майже на будь-яке запитання. Хоча їхні відповіді часто звучать авторитетно, моделям бракує надійних механізмів для перевірки своїх тверджень. Користувачі опублікували численні приклади того, як ці інструменти плутаються в основних фактичних питаннях або навіть фабрикують неправду, доповнюючи її реалістичними деталями і фальшивими цитатами. На днях Центр протидії цифровій ненависті (Center for Countering Digital Hate) опублікував звіт, згідно з яким дослідникам вдалося змусити мовний застосунок Bard від Microsof видати неправдиву інформацію 78 разів зі 100 на різні теми – від Голокосту, війни в Україні до зміни клімату.

Для убезпечення себе від можливих позовів власники систем зі ШІ попереджають користувачів, що застосунок може відображати неточну або образливу інформацію. Однак це мало втішає осіб, про яких мовні застосунки поширюють брехню. Представник Microsoft заявив, що компанія вживає заходів, щоб забезпечити безпеку і точність результатів пошуку. Зокрема розроблено систему безпеки, що включає фільтрацію контенту, оперативний моніторинг і виявлення зловживань для забезпечення безпечного пошуку.

Дедалі більш популярні застосунки на основі ШІ поки що перебувають поза рамками правового регулювання, а їх схильність генерувати потенційно шкідливу, неправдиву інформацію викликає занепокоєння щодо нового способу поширення дезінформації і ставить питання про те, хто несе за це відповідальність. З юридичної точки зору, абсолютно не зрозуміло, як судді можуть прийняти рішення у справі проти творців штучного інтелекту через надану ним неправдиву інформацію.

У США на початку ери бурхливого розвитку Інтернету Конгрес прийняв закон, відомий як «параграф 230», який захищає онлайн-сервіси від відповідальності за контент, створений третіми особами, наприклад, коментаторами на веб-сайті або користувачами соціальних додатків. Параграф 230 – це розділ Розділу 47 Кодексу США, який був прийнятий як частина Закону про пристойність у сфері комунікацій (Communications Decency Act, 1996), що є Розділом V Закону про телекомунікації (Telecommunications Act, 1996) і загалом забезпечує імунітет комп’ютерних онлайн-сервісів щодо контенту третіх сторін, створеного їхніми користувачами. По суті, параграф 230(c)(1) передбачає імунітет від відповідальності для провайдерів і користувачів «інтерактивних комп’ютерних послуг», що публікують інформацію, надану користувачами-третіми особами.

Параграф 230(c)(2) також пропонує захист від цивільної відповідальності для операторів інтерактивних комп’ютерних послуг, які добросовісно видаляють або модерують матеріали третіх осіб, які вони вважають «непристойними, хтивими, розпусними, брудними, надмірно насильницькими, образливими або неприйнятними з інших причин, незалежно від того, чи є такі матеріали захищеними Конституцією, чи ні».

Параграф 230 був розроблений у відповідь на кілька судових позовів проти онлайн-платформ на початку 1990-х років, які призвели до різного розуміння ролі провайдерів: як видавців чи як поширювачів контенту, створеного їхніми користувачами. Її  автори вважали, що для гарантування розвитку Інтернету інтерактивні комп’ютерні послуги повинні розглядатися як дистриб’ютори, які не несуть відповідальності за поширюваний ними контент. Захист, передбачений параграфом 230, вимагає від провайдерів видаляти матеріали, що є незаконними на федеральному рівні, наприклад, у випадках порушення авторських прав.

Однак у випадку ШІ не відомо, чи зможуть технологічні компанії посилатися на цей пункт, якщо на них подадуть до суду за контент, створений їхніми власними чат-ботами. Якщо мовні моделі не отримають захист за параграфом 230 або подібні гарантії, то спроби технологічних компаній модерувати свої мовні моделі та чат-боти можуть бути використані проти них у справі про відповідальність.

Ще одна проблема – технологічна. Експерти зі ШІ вважають, що здатність бота видавати правдоподібну інформацію є особливістю технології. Після формулювання запитання чат-бот не звертається до бази даних фактів, а на основі всієї доступної йому інформації намагається завершити речення переконливо, а не правдиво. Іншими словами основним завданням чат-ботів на основі ШІ є створення правдоподібного тексту, а не тексту, що відповідає дійсності. Водночас просто виправити конкретну неправдиву інформацію, опубліковану мовним застосунком на основі ШІ, є дуже складним завданням. Усі набутті ШІ знання містяться у величезних нейронних мережах, що являють собою величезні набори чисел. Іншими словами, людина не може зрозуміти, що означає певний масив чисел, яким чином він пов’язаний особою і просто видалити його зі системи. Власники застосунку можуть лише заборонити видавати певну інформацію про певну особу чи факт, але сама інформація залишається мережі й не відомо, яким чином вона буде використана у майбутньому.

 

Рейтинг публікації

Коментарі

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Loading…

0

Новини від Громадського Радіо

Про діяльність АРМА за березень