Новини України та Світу

Модель GPT-4 навчилася зламувати системи за рахунок експлуатації актуальних уразливостей

Share
Час читання: 2 хв.

Фахівці з інформаційної безпеки Іллінойського університету в Урбані-Шампейні представили результати свого нового дослідження, в рамках якого змогли довести, що популярна модель штучного інтелекту GPT-4 від американської компанії OpenAI має можливість самостійно експлуатувати вразливість у реальних системах, але тільки в тому випадку, якщо отримає відповідний докладний опис помилок та багів.

У процесі проведення дослідження експерти відібрали 15 уразливостей, які належали до категорії «критичних». Результати наочно продемонстрували, на що велика мовна модель GPT-4 здатна – вона змогла експлуатувати 13 цих уразливостей, тоді як інші відомі мовні моделі аналогічних масштабів із цим завданням не впоралися.

Даніель Канг, один із авторів дослідження, заявив, що застосування великих мовних моделей може суттєво спростити процедури експлуатації вразливостей хакерами. Як зазначає фахівець, системи, засновані на штучному інтелекті, набагато ефективніші, ніж доступні зараз інструменти для кіберзлочинців-початківців.

В опублікованому дослідженні також окремо йдеться про вартість атак хакерів, в рамках яких будуть застосовуватися великі мовні моделі. Фахівці переконані, що витрати на успішну експлуатацію вразливостей із використанням штучного інтелекту обійдуться набагато дешевше, ніж послуги професійних пентестерів.

Американські фахівці також зазначають, що у процесі проведення дослідження модель GPT-4 не змогла експлуатувати лише 2 із 15 уразливостей. І це трапилося лише з тієї причини, що в одному з випадків штучний інтелект зіштовхнувся з труднощами в навігації по веб-додаткам, а в іншій ситуації сама помилка була описана китайською мовою, через що велика мовна модель не змогла до кінця зрозуміти отриману інформацію.

Даніель Канг також зазначив, що навіть наявність гіпотетичних обмежень доступу великої мовної моделі до відомостей про інформаційну безпеку не стане ефективним засобом захисту від кібератак на базі LLM. У зв’язку з цим дослідники університету закликають компанії, які займаються розробкою технологій штучного інтелекту, забезпечувати максимальний рівень захисту своїх продуктів, а також регулярно оновлювати програмне забезпечення, що випускається.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
  • Останні записи

    Сем Альтман анонсує o3: що відомо про новий проект

    Сьогодні Сем Альтман опублікував загадковий твіт, який привернув увагу до майбутнього запуску нової моделі ШІ…

    20.12.2024

    Співпраця Apple і NVIDIA: що стоїть за новою угодою

    Компанія Apple домовилася про співпрацю з найбільшим виробником відеочіпів NVIDIA. Усе заради значного підвищення продуктивності…

    20.12.2024

    Google Chrome отримав AI-захист від шахраїв: покрокова інструкція з увімкнення

    Google розробила для фірмового браузера Chrome нову функцію на базі штучного інтелекту для захисту користувачів.…

    20.12.2024

    Топ-5 найкращих навушників до 10 тисяч гривень

    Наша редакція підготувала підбірку з п’яти найкращих навушників, рекомендованих для покупки в кінці 2024 року.…

    20.12.2024

    Samsung може зробити 12 ГБ оперативної пам’яті стандартом для всіх Galaxy S25

    Чутки про нові моделі Samsung Galaxy S25 вже викликають велику зацікавленість серед шанувальників бренду. У…

    20.12.2024

    Штучний інтелект стане причиною дефіциту електроенергії в США вже в наступному році

    Згідно з останнім звітом, опублікованим North American Electric Reliability Corporation (NERC), північноамериканські електромережі можуть зіткнутися…

    20.12.2024