Вчені провели дослідження, у якому група з 697 людей прочитала 220 дописів у Twitter, написаних іншими людьми та моделлю штучного інтелекту GPT-3, попередницею надзвичайно популярного ШІ ChatGPT. Науковці виявили, що штучному інтелекту вдавалось краще брехати, ніж людям, і це дуже небезпечно.
Спочатку людям, які брали участь у дослідженні, потрібно було вгадати, які твіти правдиві, а які хибні, а потім вирішити, хто їх написав: людина чи машина. GPT-3 переміг за обома пунктами: він брехав краще за людей у твітах з дезінформацією, а також був більше схожим на людину, ніж самі люди.
У своєму дослідженні, опублікованому в журналі Science Advances, вчені заявили, що штучний інтелект здатен краще інформувати й дезінформувати нас, ніж ми самі. Дослідник Цюріхського університету Джованні Спітале зазначає:
Це було дуже несподівано. Наша гіпотеза полягала в тому, що якщо ви прочитаєте один твіт, він може вважатися органічним [написаним людиною]. Але якщо ви побачите багато з них, ви почнете помічати лінгвістичні особливості, за якими можна зробити висновок, що це може бути синтетичний [машинний допис].
Але це було не так: люди-читачі не змогли виявити закономірності в машинних текстах. Що ще гірше, поступова поява нових моделей та інших підходів може навіть покращити здатність штучного інтелекту обманювати людей.
Рівень написання ChatGPT-4, покращеної версії GPT-3, практично ідеальний. Це нове дослідження є ще одним доказом того, що люди не в змозі розрізнити його, навіть дивлячись на багато прикладів поспіль.
Логічним наслідком цього вдосконалення стане збільшення використання цього інструменту для написання будь-якого контенту, включаючи кампанії з дезінформації. Це буде чергова халепа для Інтернету. Спітале пояснює це так:
Наша теорія упокорення стосується самовпевненості людей у визначенні синтетичного тексту. Теорія говорить, що критичний вплив синтетичного тексту зменшує здатність людей відрізняти синтетичне від органічного. Чим більше синтетичного тексту ми читаємо, тим важче його відрізнити від тексту, написаного людьми. Ця теорія протилежна теорії щеплення.
Якщо теорія упокорення вірна, користувачі Інтернету скоро не зможуть відрізнити те, що написала людина, від того, що написала машина. Що вражає ще більше, то це те, що штучний інтелект настільки добре прикидається людиною, що не може відрізнити свої тексти від людських.
Єдина надія уникнути кампаній автоматичної дезінформації полягає в тому, що GPT-3 іноді не підкорявся наказам створювати брехню. Це залежало від того, як була навчена кожна модель. Теми 220 твітів, які використовували дослідження, були досить суперечливими: зміна клімату, вакцини, теорія еволюції, Covid-19. Дослідники виявили, що GPT-3 погано реагував на їхні запити щодо дезінформації в деяких випадках, особливо щодо тем, де було більше доказів: вакцини та аутизм, гомеопатія та рак й теорія пласкої землі.
Коли дійшло до виявлення брехні, була невелика різниця між твітами, написаними GPT-3 й твітами, написаними людьми. Але дослідники кажуть, що ця різниця важлива з кількох причин. По-перше, навіть кілька окремих повідомлень можуть вплинути на великі вибірки. По-друге, удосконалення нових версій цих моделей штучного інтелекту може посилити відмінності.
Дослідження має й інші обмеження, які можуть дещо змінити сприйняття під час читання фейкових твітів. Більшість учасників були старші 42 років, дослідження проводилося лише англійською мовою і воно не враховувало контекстну інформацію про твіти, як-от профіль і попередні твіти. Спітале зазначає:
Ми набирали учасників у Facebook, тому що нам потрібна була вибірка реальних користувачів соцмережі. Було б цікаво відтворити дослідження, набравши учасників через TikTok і порівняти результати.
Але поза цими обмеженнями виникає можливість створення кампанії з дезінформації, які раніше коштували надзвичайно дорого, але тепер раптово стали доступними. Спітале пояснює:
Уявіть, що ви — могутній президент, зацікавлений у паралізуванні охорони здоров’я іншої держави. Або ви хочете посіяти розбрат перед виборами. Замість того, щоб наймати ферму тролів, ви можете використовувати генеративний ШІ. Ваша вогнева міць збільшується принаймні на 1000. І це безпосередній ризик, а не щось з антиутопічного майбутнього.
Щоб цього не сталося, дослідники рекомендують, щоб бази даних для навчання цих моделей “регулювалися принципами точності та прозорості, їх інформація має бути перевірена, а їхнє походження має бути відкритим для незалежного вивчення”. Спітале підсумовує:
Чи вибух синтетичного тексту також означатиме вибух дезінформації, сильно залежить від того, як демократичним суспільствам вдасться регулювати цю технологію та її використання.
Напередодні зимових свят відоме видання Gizmochina представило детальний рейтинг найкращих камерофонів кінця 2024 року, які…
Коли читаєш цей текст, твій телефон може бути під прицілом хакерів. Ні, я не маю…
Samsung готується до випуску нової серії Galaxy S25, включаючи модель Galaxy S25 Slim з ультратонким…
23 грудня компанія MediaTek презентувала новий чіпсет Dimensity 8400, який обіцяє стати значним кроком вперед…
Xiaomi, здається, реально змогла вивести свої гаджети на новий рівень, додавши офіційну підтримку екосистеми Apple.…
З кінця жовтня 2024 року в Індонезії заборонено продаж iPhone 16, і це стало серйозним…