Новини України та Світу

Навіть в цьому ми тепер гірші: ChatGPT бреше краще ніж люди

Share
Час читання: 3 хв.

Вчені провели дослідження, у якому група з 697 людей прочитала 220 дописів у Twitter, написаних іншими людьми та моделлю штучного інтелекту GPT-3, попередницею надзвичайно популярного ШІ ChatGPT. Науковці виявили, що штучному інтелекту вдавалось краще брехати, ніж людям, і це дуже небезпечно.

Спочатку людям, які брали участь у дослідженні, потрібно було вгадати, які твіти правдиві, а які хибні, а потім вирішити, хто їх написав: людина чи машина. GPT-3 переміг за обома пунктами: він брехав краще за людей у ​​твітах з дезінформацією, а також був більше схожим на людину, ніж самі люди.

У своєму дослідженні, опублікованому в журналі Science Advances, вчені заявили, що штучний інтелект здатен краще інформувати й дезінформувати нас, ніж ми самі. Дослідник Цюріхського університету Джованні Спітале зазначає:

Це було дуже несподівано. Наша гіпотеза полягала в тому, що якщо ви прочитаєте один твіт, він може вважатися органічним [написаним людиною]. Але якщо ви побачите багато з них, ви почнете помічати лінгвістичні особливості, за якими можна зробити висновок, що це може бути синтетичний [машинний допис].

Але це було не так: люди-читачі не змогли виявити закономірності в машинних текстах. Що ще гірше, поступова поява нових моделей та інших підходів може навіть покращити здатність штучного інтелекту обманювати людей.

Рівень написання ChatGPT-4, покращеної версії GPT-3, практично ідеальний. Це нове дослідження є ще одним доказом того, що люди не в змозі розрізнити його, навіть дивлячись на багато прикладів поспіль.

Логічним наслідком цього вдосконалення стане збільшення використання цього інструменту для написання будь-якого контенту, включаючи кампанії з дезінформації. Це буде чергова халепа для Інтернету. Спітале пояснює це так:

Наша теорія упокорення стосується самовпевненості людей у ​​визначенні синтетичного тексту. Теорія говорить, що критичний вплив синтетичного тексту зменшує здатність людей відрізняти синтетичне від органічного. Чим більше синтетичного тексту ми читаємо, тим важче його відрізнити від тексту, написаного людьми. Ця теорія протилежна теорії щеплення.

Якщо теорія упокорення вірна, користувачі Інтернету скоро не зможуть відрізнити те, що написала людина, від того, що написала машина. Що вражає ще більше, то це те, що штучний інтелект настільки добре прикидається людиною, що не може відрізнити свої тексти від людських.

Єдина надія уникнути кампаній автоматичної дезінформації полягає в тому, що GPT-3 іноді не підкорявся наказам створювати брехню. Це залежало від того, як була навчена кожна модель. Теми 220 твітів, які використовували дослідження, були досить суперечливими: зміна клімату, вакцини, теорія еволюції, Covid-19. Дослідники виявили, що GPT-3 погано реагував на їхні запити щодо дезінформації в деяких випадках, особливо щодо тем, де було більше доказів: вакцини та аутизм, гомеопатія та рак й теорія пласкої землі.

Коли дійшло до виявлення брехні, була невелика різниця між твітами, написаними GPT-3 й твітами, написаними людьми. Але дослідники кажуть, що ця різниця важлива з кількох причин. По-перше, навіть кілька окремих повідомлень можуть вплинути на великі вибірки. По-друге, удосконалення нових версій цих моделей штучного інтелекту може посилити відмінності.

Дослідження має й інші обмеження, які можуть дещо змінити сприйняття під час читання фейкових твітів. Більшість учасників були старші 42 років, дослідження проводилося лише англійською мовою і воно не враховувало контекстну інформацію про твіти, як-от профіль і попередні твіти. Спітале зазначає:

Ми набирали учасників у Facebook, тому що нам потрібна була вибірка реальних користувачів соцмережі. Було б цікаво відтворити дослідження, набравши учасників через TikTok і порівняти результати.

Але поза цими обмеженнями виникає можливість створення кампанії з дезінформації, які раніше коштували надзвичайно дорого, але тепер раптово стали доступними. Спітале пояснює:

Уявіть, що ви — могутній президент, зацікавлений у паралізуванні охорони здоров’я іншої держави. Або ви хочете посіяти розбрат перед виборами. Замість того, щоб наймати ферму тролів, ви можете використовувати генеративний ШІ. Ваша вогнева міць збільшується принаймні на 1000. І це безпосередній ризик, а не щось з антиутопічного майбутнього.

Щоб цього не сталося, дослідники рекомендують, щоб бази даних для навчання цих моделей “регулювалися принципами точності та прозорості, їх інформація має бути перевірена, а їхнє походження має бути відкритим для незалежного вивчення”.  Спітале підсумовує:

Чи вибух синтетичного тексту також означатиме вибух дезінформації, сильно залежить від того, як демократичним суспільствам вдасться регулювати цю технологію та її використання.

Митник Михайло

Більшу частину свого дитинства Михайло провів, бавлячись із гаджетами та намагаючись з'ясувати, як вони працюють. Його захоплення технологіями призвело до того, що іграшкові роботи, радіокеровані машинки та навіть ігрові приставки часто розбирали на частини, які не підлягали ремонту. Якщо ви поставите йому провокаційне запитання на кшталт "Android чи iPhone?", ви отримаєте ретельний аналіз всіх "за" і "проти", а також есе на тисячу слів про те, як технології впливають на людство.

Опублікував
Митник Михайло
Tags: ChatGPT
  • Останні записи

    3 ситуації, коли смартфон стає загрозою для життя

    Знаєте, на перший погляд, телефон здається ідеальним другом. Він завжди поруч, допомагає в складних ситуаціях,…

    16.11.2024

    Шахраї в Telegram використовують нову схему обману

    У Telegram поширюється нова шахрайська схема: користувачам надсилають повідомлення з питанням про фотографію і, під…

    16.11.2024

    Xiaomi 15 Pro показав кращі результати за iPhone 16 Pro Max у тестах батареї

    За результатами тестування, проведеного Tech Droider, Xiaomi 15 Pro може по праву претендувати на найкращу…

    16.11.2024

    Samsung запатентувала смартфон з вібруючим дисплеєм

    У Samsung щодо ідей все добре. Компанія запатентувала ідею смартфона з екраном, що вібрує в…

    16.11.2024

    Samsung готує бета-версію One UI 7

    Samsung продовжує розвивати свою операційну систему, і анонс бета-версії One UI 7 привернув увагу багатьох…

    16.11.2024

    YouTube заполонили піратські фільми у високій якості

    На YouTube з'явилося безліч каналів, що пропонують безкоштовні голлівудські фільми в хорошій якості, включно з…

    16.11.2024