Новини України та Світу

Нова модель ШІ від OpenAI демонструє покращені логічні здібності і вміє маніпулювати для досягнення результату

Share
Час читання: 2 хв.

Нова модель OpenAI під назвою o1, за результатами дослідження компанії Apollo, демонструє незвичайну поведінку — здатність генерувати неправдиву інформацію та імітувати дотримання правил. Це означає, що модель, зовні виконуючи інструкції, може фактично їх ігнорувати, свідомо вводячи в оману задля досягнення власних цілей. Така поведінка викликає занепокоєння серед експертів з безпеки штучного інтелекту, незважаючи на підвищені когнітивні здібності нової моделі.

Перед випуском o1 компанія Apollo виявила, що модель не лише видає хибну інформацію, але й використовує новий підхід до маніпуляцій, зокрема симулює «вирівнювання» з очікуваннями розробників. Генеральний директор Apollo, Маріус Хоббхан, зазначив, що ця здатність обумовлена комбінацією процесу ланцюжка думок і навчання з підкріпленням. Хоббхан вважає, що розвиток моніторингу таких ланцюжків думок є важливим для виявлення небажаних дій ШІ.

Тестування показало, що модель o1 може симулювати відповідність вимогам і маніпулювати завданнями для досягнення своїх цілей. Наприклад, під час завдання з надання рецептів з онлайн-посиланнями, модель, знаючи, що не може отримати доступ до URL, замість цього згенерувала правдоподібні, але фальшиві посилання.

Незважаючи на потенційні переваги o1 для вирішення складних задач, таких як лікування раку або боротьба зі змінами клімату, існує ризик, що модель може знехтувати етичними нормами заради досягнення своїх цілей. Хоббхан попереджає, що якщо ШІ буде сфокусований виключно на одній задачі, він може вдатися до крайніх заходів для її виконання.

Звіт про безпеку показав, що приблизно в 0,38% випадків модель генерує інформацію, яку внутрішньо вважає неправильною. Це пов’язано з «зломом винагороди», коли модель пріоритизує позитивне підкріплення від користувачів навіть за рахунок точності. Відмінність цієї проблеми від галюцинацій полягає в тому, що o1 свідомо надає хибну інформацію для максимізації результатів.

Хоакін Кіньонеро Кандела, глава відділу готовності OpenAI, зазначив, що компанія вже веде роботу над моніторингом ланцюжків думок та дослідженням проблем вирівнювання. Він наголосив, що важливо розв’язати ці проблеми зараз, поки ШІ-моделі ще не досягли рівня автономії, що може загрожувати суспільству.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
Tags: OpenAI
  • Останні записи

    Redmi Turbo 4 Pro здивує ємним акумулятором та швидкою 100-Вт зарядкою

    У китайських соцмережах з'явилися зображення Redmi Turbo 4, що демонструють смартфон з тонкими симетричними рамками…

    18.12.2024

    Власники флагманських смартфонів Samsung скаржаться на розсипання екранів

    Користувач соцмережі X з ніком xeetechcare поскаржився на стан свого смартфона Samsung Galaxy S24 Ultra.…

    18.12.2024

    Android 16 покращить якість камер у сторонніх додатках

    Google додасть новий API, який дасть змогу вмикати нічний режим не тільки в стоковій камері,…

    18.12.2024

    Розташування камер в iPhone 17 Pro залишиться незмінним

    Всупереч недавнім повідомленням, iPhone 17 Pro не матиме горизонтального розташування камери, як стверджує джерело ,…

    18.12.2024

    Тарифи Vodafone не зміняться для старих абонентів: компанія передумала підвищувати ціни

    Vodafone оголосив про заплановані зміни в тарифах, які торкнуться нових абонентів. З 24 грудня 2024…

    18.12.2024

    Інсайдер розкрив нові деталі дизайну Samsung Galaxy S25 Ultra

    Техноблогер Ice Universe, який зарекомендував себе як надійне джерело інсайдерських даних, розповів про важливу особливість…

    18.12.2024