Фахівці з кібербезпеки створили хробака Morris II для чат-ботів зі штучним інтелектом. Використання цієї шкідливої програми може призвести до викрадення даних та поширення спаму.
Група дослідників стверджує, що створена ними програма, ймовірно, є першим у світі хробаком для генеративного штучного інтелекту. Хробак здатний поширюватися від однієї системи до іншої, потенційно викрадаючи дані або розгортаючи зловмисне програмне забезпечення, пише WIRED.
«Це фактично означає, що тепер у вас є можливість здійснити новий вид кібератак, якого раніше не було», — каже керівник дослідження Бен Нассі з Cornell Tech.
У новій статті вчені показали, як здійснюють атаки за допомогою цього хробака та помічників для електронної пошти з метою викрасти дані з листів і розсилати спам. Для демонстрації дослідники створили систему електронної пошти, яка може надсилати та отримувати повідомлення за допомогою генеративного штучного інтелекту, підключаючись до ChatGPT, Gemini та LLM з відкритим кодом LLaVA.
В одному випадку дослідники, діючи як зловмисники, написали електронний лист, який «отруює» базу даних ШІ-помічника електронної пошти, використовуючи пошуково-розширену генерацію (RAG). Коли RAG отримує електронний лист у відповідь на запит користувача та надсилає його GPT-4 або Gemini Pro для створення відповіді, він, кажуть дослідники, «зламує службу генеративного ШІ» і зрештою викрадає дані з електронних листів. Це можуть бути імена, номери телефонів, номери кредитних карток та будь-яка інша конфіденційна інформація.
«Згенерована відповідь, що містить конфіденційні дані користувача, коли вона використовується для відповіді на електронний лист, пізніше заражає нові хости», — говорить Нассі.
У другому методі, кажуть вчені, використовується зображення з вбудованою зловмисною підказкою, яке змушує помічника електронної пошти пересилати повідомлення іншим.
«Після кодування самовідтворюваної підказки будь-яке зображення, що містить спам, образливий матеріал або навіть пропаганду, може бути перенаправлено новим клієнтам», — пояснює Нассі.
Дослідники очікують на появу хробаків для генеративного штучного інтелекту в «диких» умовах вже у найближчі два-три роки. Також творці нового вірусу наголошують, що їхня робота є попередженням про недосконалість архітектури екосистем зі штучним інтелектом. Вони повідомили про свої висновки Google й OpenAI.