Новини України та Світу

Штучний інтелект може обманювати, блефувати та прикидатися людьми

Share
Час читання: 2 хв.

Вчені з Массачусетського технологічного інституту виявили безліч випадків, коли системи штучного інтелекту обманювали людей. Відповідне дослідження було опубліковано в науковому журналі Patterns.

Дослідники з’ясували, що системи штучного інтелекту можуть обманювати опонентів, блефувати і видавати себе за людей.

“У міру того, як можливості систем штучного інтелекту вводити в оману стають все більш витонченими, небезпека, яку вони представляють для суспільства, буде ставати все більш серйозною”, – сказав Пітер Парк, співавтор дослідження.

Поштовхом до початку аналізу послужила програма Cicero від Meta. Вона увійшла в топ-10% кращих гравців в стратегічну гру “дипломатія”, присвячену завоюванню світу. У той час Мета сказала, що Цицерона вчили, що він “загалом чесний і добрий” і що він “ніколи навмисно не обрамляв” своїх союзників-людей.

За словами Пака, саме ця заява викликала підозри, оскільки підступність є одним з ключових елементів гри.1

Дослідники проаналізували загальнодоступні дані та виявили ряд випадків, коли програма Cicero навмисно брехала та змовлялася з метою залучення інших гравців. В одному випадку ШІ виправдав свою відсутність у грі перезавантаженням, поговоривши по телефону зі своєю дівчиною.

“Ми виявили, що мета-штучний інтелект навчився бути майстром обману”, – сказав Пітер Парк.

Команда вчених виявила подібну проблему з іншими штучними інтелектами. Зокрема, програма для гри в техаський холдем (різновид покеру) блефувала проти професійних гравців-людей. А система економічних переговорів брехала про свої переваги, щоб взяти верх.

В одному дослідженні системи штучного інтелекту в цифрових симуляторах зазвичай “прикидалися мертвими”.Вони робили це, щоб обдурити тести, створені для усунення системи, яка перетворилася на швидку копію. Після тестування ШІ відновив свою діяльність.

“Це викликає велике занепокоєння. Те, що система штучного інтелекту вважається безпечною в тестовому середовищі, не означає, що вона безпечна в реальних умовах. Вона може просто прикидатися безпечною під час тесту”, – сказав Парк.

Дослідники закликають уряд розробити закон про безпеку штучного інтелекту, який повинен враховувати можливість обману з боку системи.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
  • Останні записи

    Новий iPad з iPadOS 18.3 з’явиться навесні 2025 року

    Apple планує випустити iPad 11 базового сегмента навесні, а на пристроях, які поставлятимуться, буде попередньо…

    23.12.2024

    Трамп вирішив врятувати TikTok від блокування у США

    Новообраний президент США Дональд Трамп висловив намір дозволити TikTok продовжити свою діяльність у країні. За…

    23.12.2024

    Старі iPhone отримають урізану версію ШІ в iOS 19

    Згідно з інформацією, яку опублікував французький блог iPhoneSoft, Apple не планує припиняти підтримку старих моделей…

    23.12.2024

    Павло Дуров заявив, що Telegram вперше став прибутковим

    Месенджер Telegram уперше за три роки з моменту появи Premium підписки став прибутковим. Про це…

    23.12.2024

    Ілон Маск спрогнозував, коли ШІ обійде людський інтелект

    Американський бізнесмен і мільярдер Ілон Маск вважає, що штучний інтелект (ШІ) перевершить інтелект усіх людей…

    23.12.2024

    Nothing анонсувала випуск нового продукту навесні 2025 року

    На YouTube-каналі Nothing нещодавно вийшло нове відео, в якому Люсі Берлі, дизайнерка компанії, розповіла про…

    23.12.2024