Новини України та Світу

Модель GPT-4 навчилася зламувати системи за рахунок експлуатації актуальних уразливостей

Share
Час читання: 2 хв.

Фахівці з інформаційної безпеки Іллінойського університету в Урбані-Шампейні представили результати свого нового дослідження, в рамках якого змогли довести, що популярна модель штучного інтелекту GPT-4 від американської компанії OpenAI має можливість самостійно експлуатувати вразливість у реальних системах, але тільки в тому випадку, якщо отримає відповідний докладний опис помилок та багів.

У процесі проведення дослідження експерти відібрали 15 уразливостей, які належали до категорії «критичних». Результати наочно продемонстрували, на що велика мовна модель GPT-4 здатна – вона змогла експлуатувати 13 цих уразливостей, тоді як інші відомі мовні моделі аналогічних масштабів із цим завданням не впоралися.

Даніель Канг, один із авторів дослідження, заявив, що застосування великих мовних моделей може суттєво спростити процедури експлуатації вразливостей хакерами. Як зазначає фахівець, системи, засновані на штучному інтелекті, набагато ефективніші, ніж доступні зараз інструменти для кіберзлочинців-початківців.

В опублікованому дослідженні також окремо йдеться про вартість атак хакерів, в рамках яких будуть застосовуватися великі мовні моделі. Фахівці переконані, що витрати на успішну експлуатацію вразливостей із використанням штучного інтелекту обійдуться набагато дешевше, ніж послуги професійних пентестерів.

Американські фахівці також зазначають, що у процесі проведення дослідження модель GPT-4 не змогла експлуатувати лише 2 із 15 уразливостей. І це трапилося лише з тієї причини, що в одному з випадків штучний інтелект зіштовхнувся з труднощами в навігації по веб-додаткам, а в іншій ситуації сама помилка була описана китайською мовою, через що велика мовна модель не змогла до кінця зрозуміти отриману інформацію.

Даніель Канг також зазначив, що навіть наявність гіпотетичних обмежень доступу великої мовної моделі до відомостей про інформаційну безпеку не стане ефективним засобом захисту від кібератак на базі LLM. У зв’язку з цим дослідники університету закликають компанії, які займаються розробкою технологій штучного інтелекту, забезпечувати максимальний рівень захисту своїх продуктів, а також регулярно оновлювати програмне забезпечення, що випускається.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
  • Останні записи

    TSMC перенесла запуск нового заводу в США на 2025 рік

    Наразі плани TSMC у Сполучених Штатах залежать від поточної політичної ситуації. Як повідомляє Digitimes, компанія…

    15.11.2024

    Samsung планує представити Galaxy S25 на початку 2025 року

    Любителі мобільних пристроїв чекають чергових флагманських смартфонів, і на черзі апарати Samsung Galaxy S. Їхня…

    15.11.2024

    Штучний інтелект Google Gemini вийшов на iPhone

    Google випустила безкоштовний застосунок чат-бота Gemini для користувачів iPhone - тепер його можна завантажити в…

    15.11.2024

    Наскільки безпечно спати зі смартфоном під подушкою

    Чесно кажучи, я теж час від часу беру телефон у ліжко, хоча знаю, що це…

    15.11.2024

    Компанія 01.ai анонсувала інноваційну ШІ-модель Yi-Lightning

    Компанія 01.ai представила нову модель ШІ Yi-Lightning, схожу з GPT-4. Для навчання моделі використовувалося 2000…

    15.11.2024

    Вийшов безкоштовний ChatGPT для Windows

    Стартап OpenAI офіційно оголосив про вихід загальнодоступної версії застосунку ChatGPT для користувачів ПК під управлінням…

    15.11.2024