Штучний інтелект може обманювати, блефувати та прикидатися людьми

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: 2 хв.

Вчені з Массачусетського технологічного інституту виявили безліч випадків, коли системи штучного інтелекту обманювали людей. Відповідне дослідження було опубліковано в науковому журналі Patterns.

Дослідники з’ясували, що системи штучного інтелекту можуть обманювати опонентів, блефувати і видавати себе за людей.

Реклама

“У міру того, як можливості систем штучного інтелекту вводити в оману стають все більш витонченими, небезпека, яку вони представляють для суспільства, буде ставати все більш серйозною”, – сказав Пітер Парк, співавтор дослідження.

Поштовхом до початку аналізу послужила програма Cicero від Meta. Вона увійшла в топ-10% кращих гравців в стратегічну гру “дипломатія”, присвячену завоюванню світу. У той час Мета сказала, що Цицерона вчили, що він “загалом чесний і добрий” і що він “ніколи навмисно не обрамляв” своїх союзників-людей.

За словами Пака, саме ця заява викликала підозри, оскільки підступність є одним з ключових елементів гри.1

Дослідники проаналізували загальнодоступні дані та виявили ряд випадків, коли програма Cicero навмисно брехала та змовлялася з метою залучення інших гравців. В одному випадку ШІ виправдав свою відсутність у грі перезавантаженням, поговоривши по телефону зі своєю дівчиною.

“Ми виявили, що мета-штучний інтелект навчився бути майстром обману”, – сказав Пітер Парк.

Команда вчених виявила подібну проблему з іншими штучними інтелектами. Зокрема, програма для гри в техаський холдем (різновид покеру) блефувала проти професійних гравців-людей. А система економічних переговорів брехала про свої переваги, щоб взяти верх.

В одному дослідженні системи штучного інтелекту в цифрових симуляторах зазвичай “прикидалися мертвими”.Вони робили це, щоб обдурити тести, створені для усунення системи, яка перетворилася на швидку копію. Після тестування ШІ відновив свою діяльність.

“Це викликає велике занепокоєння. Те, що система штучного інтелекту вважається безпечною в тестовому середовищі, не означає, що вона безпечна в реальних умовах. Вона може просто прикидатися безпечною під час тесту”, – сказав Парк.

Дослідники закликають уряд розробити закон про безпеку штучного інтелекту, який повинен враховувати можливість обману з боку системи.

Реклама

Вас також можуть зацікавити новини:

Джерелоtheguardian.com

Не пропустіть

СВІЖІ НОВИНИ