Новини України та Світу

Штучний інтелект може обманювати, блефувати та прикидатися людьми

Share
Час читання: 2 хв.

Вчені з Массачусетського технологічного інституту виявили безліч випадків, коли системи штучного інтелекту обманювали людей. Відповідне дослідження було опубліковано в науковому журналі Patterns.

Дослідники з’ясували, що системи штучного інтелекту можуть обманювати опонентів, блефувати і видавати себе за людей.

“У міру того, як можливості систем штучного інтелекту вводити в оману стають все більш витонченими, небезпека, яку вони представляють для суспільства, буде ставати все більш серйозною”, – сказав Пітер Парк, співавтор дослідження.

Поштовхом до початку аналізу послужила програма Cicero від Meta. Вона увійшла в топ-10% кращих гравців в стратегічну гру “дипломатія”, присвячену завоюванню світу. У той час Мета сказала, що Цицерона вчили, що він “загалом чесний і добрий” і що він “ніколи навмисно не обрамляв” своїх союзників-людей.

За словами Пака, саме ця заява викликала підозри, оскільки підступність є одним з ключових елементів гри.1

Дослідники проаналізували загальнодоступні дані та виявили ряд випадків, коли програма Cicero навмисно брехала та змовлялася з метою залучення інших гравців. В одному випадку ШІ виправдав свою відсутність у грі перезавантаженням, поговоривши по телефону зі своєю дівчиною.

“Ми виявили, що мета-штучний інтелект навчився бути майстром обману”, – сказав Пітер Парк.

Команда вчених виявила подібну проблему з іншими штучними інтелектами. Зокрема, програма для гри в техаський холдем (різновид покеру) блефувала проти професійних гравців-людей. А система економічних переговорів брехала про свої переваги, щоб взяти верх.

В одному дослідженні системи штучного інтелекту в цифрових симуляторах зазвичай “прикидалися мертвими”.Вони робили це, щоб обдурити тести, створені для усунення системи, яка перетворилася на швидку копію. Після тестування ШІ відновив свою діяльність.

“Це викликає велике занепокоєння. Те, що система штучного інтелекту вважається безпечною в тестовому середовищі, не означає, що вона безпечна в реальних умовах. Вона може просто прикидатися безпечною під час тесту”, – сказав Парк.

Дослідники закликають уряд розробити закон про безпеку штучного інтелекту, який повинен враховувати можливість обману з боку системи.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
  • Останні записи

    Samsung може збільшити ціну на Galaxy S25 Ultra

    Якщо чутки справдяться, Galaxy S25 Ultra може опинитися в дуже складній ситуації. Адже з такою…

    22.11.2024

    4 інноваційні функції iPhone 16 Pro, які зроблять його вартих вашої уваги

    Нещодавно було представлено нову лінійку смартфонів від Apple. І перше, що впадає у вічі, це…

    22.11.2024

    Експерти назвали 9 найкращих смартфонів Samsung

    Samsung Galaxy S24 Ultra – це справжній флагман, який поєднує відмінний дисплей, найкращу камеру та…

    22.11.2024

    Apple відкладе запуск нового AI-помічника до 2026 року

    Apple працює над новою версією Siri на основі більш просунутих великих мовних моделей, про що…

    22.11.2024

    Користувачі Android зможуть приховувати свою пошту завдяки новій функції від Google

    Google розробляє нову функцію під назвою Shield Email, яка надасть власникам пристроїв на базі Android…

    22.11.2024

    Продажі iPhone 16 перевищили флагмани на 42%

    Аналітики агентства Consumer Intelligence Research Partners (CIRP) на основі результатів продажів за останні три роки…

    22.11.2024