Новини України та Світу

Штучний інтелект навчився обманювати людей

Share
Час читання: 3 хв.

Чимало систем штучного інтелекту (ШІ) вже навчилися обманювати людей. Це стосується навіть тих систем, які навчені бути корисними та чесними. В оглядовій статті, опублікованій у журналі Patterns 10 травня, дослідники описують ризики обману систем штучного інтелекту та закликають уряди якнайшвидше розробити жорсткі правила для вирішення цієї проблеми.

«Розробники штучного інтелекту не мають чіткого розуміння того, що спричиняє небажану поведінку штучного інтелекту, як-от обман, — каже перший автор Пітер С. Парк, дослідник екзистенціальної безпеки ШІ в MIT. — Але загалом кажучи, ми вважаємо, що обман ШІ виникає тому, що стратегія, заснована на обмані, виявилася найкращим способом успішного виконання завдань навчання ШІ. Обман допомагає їм досягти своїх цілей».

Пак і його колеги проаналізували літературу, зосередившись на способах, якими системи штучного інтелекту поширюють неправдиву інформацію – шляхом навченого обману, за допомогою якого вони систематично вчаться маніпулювати іншими.

Приклади обману під час ігор

Найяскравішим прикладом обману штучного інтелекту, який дослідники виявили під час свого аналізу, стала CICERO від Meta. Це система штучного інтелекту, розроблена для гри Diplomacy, яка є грою для завоювання світу і яка передбачає створення альянсів. Meta стверджує, що навчила CICERO бути «значною мірою чесним і корисним» і «ніколи навмисно не завдавати ударів у спину» своїм союзникам-людям під час гри, але дані, опубліковані компанією разом із науковою публікацією, показали, що CICERO не грає чесно.

«Ми виявили, що штучний інтелект Meta навчився бути майстром обману, — каже Пак. — Хоча Meta вдалося навчити свій штучний інтелект перемагати в грі дипломатії — CICERO потрапив до 10% найкращих гравців-людей, які грали більше однієї гри, — Meta не змогла навчити свій штучний інтелект перемагати чесно».

Інші системи штучного інтелекту продемонстрували здатність блефувати під час гри в техаський холдем покер проти професійних гравців-людей, імітувати атаки під час стратегічної гри Starcraft II, щоб перемогти суперників, і спотворювати їхні вподобання, щоб отримати перевагу в економічні переговори.

Обман в іграх може здатися нешкідливим, але це може призвести до «прориву в оманливих можливостях штучного інтелекту», який у майбутньому може перерости в більш просунуті форми обману ШІ, додав Пак.

Обман під час складання тестів

Дослідники виявили, що деякі системи ШІ навіть навчилися обманювати тести, призначені для оцінки їх безпеки. В одному дослідженні організми штучного інтелекту в цифровому симуляторі «видавалися мертвими», щоб обдурити тест, створений для усунення систем ШІ, які швидко відтворюються.

«Шляхом систематичного обману тестів безпеки, нав’язаних розробниками та регуляторами, оманливий штучний інтелект може викликати у нас, людей, помилкове відчуття безпеки», — каже Парк.

Можливі наслідки

Основні короткострокові ризики оманливого штучного інтелекту включають:

  • полегшення ворожим особам вчинення шахрайства;
  • втручання у вибори.

Зрештою, якщо ці системи зможуть удосконалити цей тривожний набір навичок, люди можуть втратити контроль над ними, каже Парк.

«Нам, як суспільству, потрібно якомога більше часу, щоб підготуватися до більш просунутого обману майбутніх продуктів штучного інтелекту та моделей з відкритим вихідним кодом, — каже Парк. — У міру того, як шахрайські можливості систем штучного інтелекту стають більш досконалими, небезпека, яку вони становлять для суспільства, ставатиме все більш серйозною».

Хоча Пак і його колеги вважають, що суспільство ще не має правильних заходів для боротьби з обманом штучного інтелекту, їх надихає те, що політики почали сприймати цю проблему серйозно за допомогою таких заходів, як Закон ЄС про штучний інтелект та виконавчий наказ президента Байдена щодо штучного інтелекту. Але, за словами Парка, ще належить з’ясувати, чи можна суворо дотримуватися політики, спрямованої на пом’якшення обману ШІ, враховуючи, що розробники ШІ ще не мають методів, щоб контролювати ці системи.

«Якщо заборона обману ШІ є політично нездійсненною на даний момент, ми рекомендуємо класифікувати оманливі системи ШІ як високоризикові», — каже Пак.

Митник Михайло

Більшу частину свого дитинства Михайло провів, бавлячись із гаджетами та намагаючись з'ясувати, як вони працюють. Його захоплення технологіями призвело до того, що іграшкові роботи, радіокеровані машинки та навіть ігрові приставки часто розбирали на частини, які не підлягали ремонту. Якщо ви поставите йому провокаційне запитання на кшталт "Android чи iPhone?", ви отримаєте ретельний аналіз всіх "за" і "проти", а також есе на тисячу слів про те, як технології впливають на людство.

Опублікував
Митник Михайло
  • Останні записи

    iPhone 17 Air не стане найдорожчим: навіть iPhone 17 Pro обійдеться дорожче

    The Wall Street Journal стверджує, що ця модель не буде дорожчою за iPhone 17 Pro…

    16.12.2024

    Користувачі iPhone і Samsung Galaxy розчаровані новими функціями на основі ШІ

    Нове опитування фахівців з компанії SellCell показує, що більшість функцій Apple Intelligence не несуть ніякої…

    16.12.2024

    Ілон Маск анонсував власну електронну пошту: чим вона відрізняється від інших сервісів

    Ілон Маск підтвердив, що його команда соціальної мережі X (Twitter) працює над створенням фірмового сервісу…

    16.12.2024

    В мережі з’явилися перші деталі нового девайсу Apple

    Компанія Apple готує до виходу Macbook монструозних розмірів. Про це пише MacRumors. Що відомо Згідно…

    16.12.2024

    Чат-бот Grok-2 від Ілона Маска став безкоштовним: як протестувати його функції

    Функціями новітньої ШІ-моделі Grok-2 тепер можуть скористатися всі користувачі соцмережі X. Чат-бот доступний навіть без…

    16.12.2024

    Nokia 105 і 110 отримали сучасний редизайн та порт USB Type-C

    HMD Global представила два нових кнопкових телефони під брендом Nokia. Друге покоління Nokia 105 4G…

    16.12.2024