Новини України та Світу

Модель GPT-4 навчилася зламувати системи за рахунок експлуатації актуальних уразливостей

Share

Фахівці з інформаційної безпеки Іллінойського університету в Урбані-Шампейні представили результати свого нового дослідження, в рамках якого змогли довести, що популярна модель штучного інтелекту GPT-4 від американської компанії OpenAI має можливість самостійно експлуатувати вразливість у реальних системах, але тільки в тому випадку, якщо отримає відповідний докладний опис помилок та багів.

У процесі проведення дослідження експерти відібрали 15 уразливостей, які належали до категорії «критичних». Результати наочно продемонстрували, на що велика мовна модель GPT-4 здатна – вона змогла експлуатувати 13 цих уразливостей, тоді як інші відомі мовні моделі аналогічних масштабів із цим завданням не впоралися.

Даніель Канг, один із авторів дослідження, заявив, що застосування великих мовних моделей може суттєво спростити процедури експлуатації вразливостей хакерами. Як зазначає фахівець, системи, засновані на штучному інтелекті, набагато ефективніші, ніж доступні зараз інструменти для кіберзлочинців-початківців.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

В опублікованому дослідженні також окремо йдеться про вартість атак хакерів, в рамках яких будуть застосовуватися великі мовні моделі. Фахівці переконані, що витрати на успішну експлуатацію вразливостей із використанням штучного інтелекту обійдуться набагато дешевше, ніж послуги професійних пентестерів.

Американські фахівці також зазначають, що у процесі проведення дослідження модель GPT-4 не змогла експлуатувати лише 2 із 15 уразливостей. І це трапилося лише з тієї причини, що в одному з випадків штучний інтелект зіштовхнувся з труднощами в навігації по веб-додаткам, а в іншій ситуації сама помилка була описана китайською мовою, через що велика мовна модель не змогла до кінця зрозуміти отриману інформацію.

Даніель Канг також зазначив, що навіть наявність гіпотетичних обмежень доступу великої мовної моделі до відомостей про інформаційну безпеку не стане ефективним засобом захисту від кібератак на базі LLM. У зв’язку з цим дослідники університету закликають компанії, які займаються розробкою технологій штучного інтелекту, забезпечувати максимальний рівень захисту своїх продуктів, а також регулярно оновлювати програмне забезпечення, що випускається.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
  • Останні записи

    iPhone 16 Pro Max отримає новий тип акумулятора

    За словами аналітика Мінґ-Чі Куо, Apple в iPhone 16 Pro Max використовуватиме акумулятор із підвищеною…

    17.05.2024

    Кращий за iPhone 14 і Galaxy S24. Фахівці DxOMark протестували камеру Google Pixel 8a

    Експерти DxOMark протестували камеру смартфона Google Pixel 8a. Незважаючи на позиціонування як спрощену модель і…

    17.05.2024

    В мережу потрапили нові деталі та характеристики Galaxy Z Fold 6

    Samsung готується представити Galaxy Z Flip 6 і Galaxy Z Fold 6 в найближчі місяці.…

    17.05.2024

    Meta працює над власними навушниками з камерою та штучним інтелектом

    Як ми звикли чути з 2023 року, сфера застосування штучного інтелекту розширюється. Компанії змагаються за…

    17.05.2024

    Samsung Galaxy M35 показали наживо (відео)

    Galaxy M35 з'явився на консолі Google Play лише кілька днів тому, а це означає, що…

    17.05.2024

    Ось чому Windows XP не варто використовувати у 2024-му році (відео)

    Техноблогер Ерік Паркер опублікував цікавий відеоролик: він показує, як Windows XP відстала від часу в…

    17.05.2024