Створено вірус, здатний використовувати ChatGPT чи Gemini для викрадання даних

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Фахівці з кібербезпеки створили хробака Morris II для чат-ботів зі штучним інтелектом. Використання цієї шкідливої програми може призвести до викрадення даних та поширення спаму.

Група дослідників стверджує, що створена ними програма, ймовірно, є першим у світі хробаком для генеративного штучного інтелекту. Хробак здатний поширюватися від однієї системи до іншої, потенційно викрадаючи дані або розгортаючи зловмисне програмне забезпечення, пише WIRED.

«Це фактично означає, що тепер у вас є можливість здійснити новий вид кібератак, якого раніше не було», — каже керівник дослідження Бен Нассі з Cornell Tech.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

У новій статті вчені показали, як здійснюють атаки за допомогою цього хробака та помічників для електронної пошти з метою викрасти дані з листів і розсилати спам. Для демонстрації дослідники створили систему електронної пошти, яка може надсилати та отримувати повідомлення за допомогою генеративного штучного інтелекту, підключаючись до ChatGPT, Gemini та LLM з відкритим кодом LLaVA.

В одному випадку дослідники, діючи як зловмисники, написали електронний лист, який «отруює» базу даних ШІ-помічника електронної пошти, використовуючи пошуково-розширену генерацію (RAG). Коли RAG отримує електронний лист у відповідь на запит користувача та надсилає його GPT-4 або Gemini Pro для створення відповіді, він, кажуть дослідники, «зламує службу генеративного ШІ» і зрештою викрадає дані з електронних листів. Це можуть бути імена, номери телефонів, номери кредитних карток та будь-яка інша конфіденційна інформація.

«Згенерована відповідь, що містить конфіденційні дані користувача, коли вона використовується для відповіді на електронний лист, пізніше заражає нові хости», — говорить Нассі.

У другому методі, кажуть вчені, використовується зображення з вбудованою зловмисною підказкою, яке змушує помічника електронної пошти пересилати повідомлення іншим.

«Після кодування самовідтворюваної підказки будь-яке зображення, що містить спам, образливий матеріал або навіть пропаганду, може бути перенаправлено новим клієнтам», — пояснює Нассі.

Дослідники очікують на появу хробаків для генеративного штучного інтелекту в «диких» умовах вже у найближчі два-три роки. Також творці нового вірусу наголошують, що їхня робота є попередженням про недосконалість архітектури екосистем зі штучним інтелектом. Вони повідомили про свої висновки Google й OpenAI.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Підписуйтесь на нас в Google News, Facebook та TikTok 

РЕКЛАМА

Більшу частину свого дитинства Михайло провів, бавлячись із гаджетами та намагаючись з'ясувати, як вони працюють. Його захоплення технологіями призвело до того, що іграшкові роботи, радіокеровані машинки та навіть ігрові приставки часто розбирали на частини, які не підлягали ремонту. Якщо ви поставите йому провокаційне запитання на кшталт "Android чи iPhone?", ви отримаєте ретельний аналіз всіх "за" і "проти", а також есе на тисячу слів про те, як технології впливають на людство.