Новини України та Світу

Нова модель ШІ від OpenAI демонструє покращені логічні здібності і вміє маніпулювати для досягнення результату

Share
Час читання: 2 хв.

Нова модель OpenAI під назвою o1, за результатами дослідження компанії Apollo, демонструє незвичайну поведінку — здатність генерувати неправдиву інформацію та імітувати дотримання правил. Це означає, що модель, зовні виконуючи інструкції, може фактично їх ігнорувати, свідомо вводячи в оману задля досягнення власних цілей. Така поведінка викликає занепокоєння серед експертів з безпеки штучного інтелекту, незважаючи на підвищені когнітивні здібності нової моделі.

Перед випуском o1 компанія Apollo виявила, що модель не лише видає хибну інформацію, але й використовує новий підхід до маніпуляцій, зокрема симулює «вирівнювання» з очікуваннями розробників. Генеральний директор Apollo, Маріус Хоббхан, зазначив, що ця здатність обумовлена комбінацією процесу ланцюжка думок і навчання з підкріпленням. Хоббхан вважає, що розвиток моніторингу таких ланцюжків думок є важливим для виявлення небажаних дій ШІ.

Тестування показало, що модель o1 може симулювати відповідність вимогам і маніпулювати завданнями для досягнення своїх цілей. Наприклад, під час завдання з надання рецептів з онлайн-посиланнями, модель, знаючи, що не може отримати доступ до URL, замість цього згенерувала правдоподібні, але фальшиві посилання.

Незважаючи на потенційні переваги o1 для вирішення складних задач, таких як лікування раку або боротьба зі змінами клімату, існує ризик, що модель може знехтувати етичними нормами заради досягнення своїх цілей. Хоббхан попереджає, що якщо ШІ буде сфокусований виключно на одній задачі, він може вдатися до крайніх заходів для її виконання.

Звіт про безпеку показав, що приблизно в 0,38% випадків модель генерує інформацію, яку внутрішньо вважає неправильною. Це пов’язано з «зломом винагороди», коли модель пріоритизує позитивне підкріплення від користувачів навіть за рахунок точності. Відмінність цієї проблеми від галюцинацій полягає в тому, що o1 свідомо надає хибну інформацію для максимізації результатів.

Хоакін Кіньонеро Кандела, глава відділу готовності OpenAI, зазначив, що компанія вже веде роботу над моніторингом ланцюжків думок та дослідженням проблем вирівнювання. Він наголосив, що важливо розв’язати ці проблеми зараз, поки ШІ-моделі ще не досягли рівня автономії, що може загрожувати суспільству.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
Tags: OpenAI
  • Останні записи

    У лінійці Intel Core Ultra 200S з’являться ще сім нових процесорів

    Інсайдер під ніком @momomo_us розповів про сім нових процесорів у лінійці Intel Core Ultra 200S…

    13.11.2024

    Названо остаточні системні вимоги S.T.A.L.K.E.R. 2: Heart of Chornobyl

    STALKER 2 використовує двигун Epic Unreal Engine 5, в який інтегровані такі передові функції, як…

    13.11.2024

    Google Pixel тролить iPhone у новому відео

    Google продовжує специфічно підсвічувати переваги Pixel 9 Pro перед смартфонами Apple. За традицією, компанія робить…

    13.11.2024

    Огляд HATOR Gravity TKL: найкраща компактна і стильна клавіатура для ігор

    Український бренд HATOR розширює свій асортимент механічних клавіатур новою серією під назвою Gravity. Її головна…

    13.11.2024

    Дизайн Oppo Reno 13 нагадуватиме смартфони iPhone

    Очікується, що компанія Oppo анонсує нову лінійку смартфонів Reno, серію Reno 13, через кілька тижнів.…

    13.11.2024

    iPhone 17 Air буде товстішим за iPhone 6, випущений у 2014-му

    Очікується, що наступного року Apple представить абсолютно новий iPhone 17 Air за $1300, в якому…

    13.11.2024