Модель GPT-4 навчилася зламувати системи за рахунок експлуатації актуальних уразливостей

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Фахівці з інформаційної безпеки Іллінойського університету в Урбані-Шампейні представили результати свого нового дослідження, в рамках якого змогли довести, що популярна модель штучного інтелекту GPT-4 від американської компанії OpenAI має можливість самостійно експлуатувати вразливість у реальних системах, але тільки в тому випадку, якщо отримає відповідний докладний опис помилок та багів.

У процесі проведення дослідження експерти відібрали 15 уразливостей, які належали до категорії «критичних». Результати наочно продемонстрували, на що велика мовна модель GPT-4 здатна – вона змогла експлуатувати 13 цих уразливостей, тоді як інші відомі мовні моделі аналогічних масштабів із цим завданням не впоралися.

Даніель Канг, один із авторів дослідження, заявив, що застосування великих мовних моделей може суттєво спростити процедури експлуатації вразливостей хакерами. Як зазначає фахівець, системи, засновані на штучному інтелекті, набагато ефективніші, ніж доступні зараз інструменти для кіберзлочинців-початківців.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

В опублікованому дослідженні також окремо йдеться про вартість атак хакерів, в рамках яких будуть застосовуватися великі мовні моделі. Фахівці переконані, що витрати на успішну експлуатацію вразливостей із використанням штучного інтелекту обійдуться набагато дешевше, ніж послуги професійних пентестерів.

Американські фахівці також зазначають, що у процесі проведення дослідження модель GPT-4 не змогла експлуатувати лише 2 із 15 уразливостей. І це трапилося лише з тієї причини, що в одному з випадків штучний інтелект зіштовхнувся з труднощами в навігації по веб-додаткам, а в іншій ситуації сама помилка була описана китайською мовою, через що велика мовна модель не змогла до кінця зрозуміти отриману інформацію.

Даніель Канг також зазначив, що навіть наявність гіпотетичних обмежень доступу великої мовної моделі до відомостей про інформаційну безпеку не стане ефективним засобом захисту від кібератак на базі LLM. У зв’язку з цим дослідники університету закликають компанії, які займаються розробкою технологій штучного інтелекту, забезпечувати максимальний рівень захисту своїх продуктів, а також регулярно оновлювати програмне забезпечення, що випускається.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.