Експерти попереджають про нові потенційні загрози використання ChatGPT

ЗАРАЗ ЧИТАЮТЬ

Час читання: < 1 хв.

На фоні підготовки до презентації нової великої мовної моделі GPT-5 компанією OpenAI, експерти стають все більш тривожними.

Реклама

Після проведення великого нового дослідження вчені прийшли до висновку, що розрізнити ChatGPT від людини у розмові майже неможливо.

Наприклад, інструмент GPT-4 почав генерувати настільки природні текстові відповіді, що ефективно виконує різні мовні завдання, ставлячи під сумнів нашу здатність відрізнити машину від людського співрозмовника.

Про це пише видання The Register.

Варто звернути увагу на те, що ця розробка перегукується з відомим уявним експериментом Алана Тюрінга, який запропонував тест, щоб визначити, чи може машина демонструвати поведінку, яку неможливо відрізнити від людської, ґрунтуючись виключно на її відповідях.

Як відбувалося нове дослідження

За словами авторів дослідження, для проведення тесту GPT-4 і GPT-3.5 отримали спеціальні інструкції щодо того, як відповідати.

Де-факто їм наказали “прийняти образ молодої людини, яка була дуже лаконічною, не сприймала гру дуже серйозно, використовувала сленг і час від часу робила орфографічні помилки”.

Ба більше, вказано, що підказка містила загальну інформацію про налаштування гри та останні новини, що стосувалися навчання моделей.

Як зазначають автори дослідження, відповіді ШІ затримувалися залежно від довжини повідомлення, щоб запобігти занадто швидкій відповіді.

Результати були вражаючими: GPT-4 був ідентифікований як людина в 54% випадків, трохи випередивши GPT-3.5 на 50%, і обидва значно перевершили ELIZA, який був ідентифікований як людина лише у 22% випадків. Справжні люди були правильно ідентифіковані в 67% випадків, — йдеться в повідомленні
Реклама

Вас також можуть зацікавити новини:

Підписуйтесь на нас в Google News, Facebook та TikTok 

Не пропустіть

СВІЖІ НОВИНИ