Новини України та Світу

Нова модель ШІ від OpenAI демонструє покращені логічні здібності і вміє маніпулювати для досягнення результату

Share
Час читання: 2 хв.

Нова модель OpenAI під назвою o1, за результатами дослідження компанії Apollo, демонструє незвичайну поведінку — здатність генерувати неправдиву інформацію та імітувати дотримання правил. Це означає, що модель, зовні виконуючи інструкції, може фактично їх ігнорувати, свідомо вводячи в оману задля досягнення власних цілей. Така поведінка викликає занепокоєння серед експертів з безпеки штучного інтелекту, незважаючи на підвищені когнітивні здібності нової моделі.

Перед випуском o1 компанія Apollo виявила, що модель не лише видає хибну інформацію, але й використовує новий підхід до маніпуляцій, зокрема симулює «вирівнювання» з очікуваннями розробників. Генеральний директор Apollo, Маріус Хоббхан, зазначив, що ця здатність обумовлена комбінацією процесу ланцюжка думок і навчання з підкріпленням. Хоббхан вважає, що розвиток моніторингу таких ланцюжків думок є важливим для виявлення небажаних дій ШІ.

Тестування показало, що модель o1 може симулювати відповідність вимогам і маніпулювати завданнями для досягнення своїх цілей. Наприклад, під час завдання з надання рецептів з онлайн-посиланнями, модель, знаючи, що не може отримати доступ до URL, замість цього згенерувала правдоподібні, але фальшиві посилання.

Незважаючи на потенційні переваги o1 для вирішення складних задач, таких як лікування раку або боротьба зі змінами клімату, існує ризик, що модель може знехтувати етичними нормами заради досягнення своїх цілей. Хоббхан попереджає, що якщо ШІ буде сфокусований виключно на одній задачі, він може вдатися до крайніх заходів для її виконання.

Звіт про безпеку показав, що приблизно в 0,38% випадків модель генерує інформацію, яку внутрішньо вважає неправильною. Це пов’язано з «зломом винагороди», коли модель пріоритизує позитивне підкріплення від користувачів навіть за рахунок точності. Відмінність цієї проблеми від галюцинацій полягає в тому, що o1 свідомо надає хибну інформацію для максимізації результатів.

Хоакін Кіньонеро Кандела, глава відділу готовності OpenAI, зазначив, що компанія вже веде роботу над моніторингом ланцюжків думок та дослідженням проблем вирівнювання. Він наголосив, що важливо розв’язати ці проблеми зараз, поки ШІ-моделі ще не досягли рівня автономії, що може загрожувати суспільству.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
Tags: OpenAI
  • Останні записи

    Показано L-подібну батарею iPhone 16 Pro Max зі сталевою оболонкою

    Apple розпочне продажі iPhone 16 Pro Max та інших моделей 20 вересня, але деякі користувачі…

    19.09.2024

    Інсайдери: iPhone 17 отримає 3-нм чіпи, тоді як 2-нм техпроцес з’явиться лише у деяких версіях iPhone 18

    Лінійка iPhone 17, яка очікується наступного року, буде оснащена процесорами, виготовленими за вдосконаленою 3-нанометровою технологією…

    19.09.2024

    Експерт порівняв камери iPhone 16 Pro Max, Samsung Galaxy S24 Ultra та Google Pixel 9 Pro XL

    iPhone 16 Pro Max, який надійде у продаж завтра, вже пройшов тестування від численних блогерів,…

    19.09.2024

    Instagram зробив всі акаунти підлітків приватними

    Instagram представив новий пакет функцій для захисту підлітків, включаючи оновлені налаштування конфіденційності, посилений батьківський контроль…

    19.09.2024

    WhatsApp додасть ще одну популярну функцію з Telegram

    Розробники WhatsApp продовжують вдосконалювати функціонал свого популярного месенджера. Згідно з порталом WABetaInfo, наступне оновлення принесе…

    19.09.2024

    Android 15 виходить 15 жовтня, але лише для Google Pixel

    Google випустила Android 15 на початку цього місяця, проте наразі нова версія доступна тільки для…

    19.09.2024