Фахівці з кібербезпеки створили хробака Morris II для чат-ботів зі штучним інтелектом. Використання цієї шкідливої програми може призвести до викрадення даних та поширення спаму.
Група дослідників стверджує, що створена ними програма, ймовірно, є першим у світі хробаком для генеративного штучного інтелекту. Хробак здатний поширюватися від однієї системи до іншої, потенційно викрадаючи дані або розгортаючи зловмисне програмне забезпечення, пише WIRED.
«Це фактично означає, що тепер у вас є можливість здійснити новий вид кібератак, якого раніше не було», — каже керівник дослідження Бен Нассі з Cornell Tech.
У новій статті вчені показали, як здійснюють атаки за допомогою цього хробака та помічників для електронної пошти з метою викрасти дані з листів і розсилати спам. Для демонстрації дослідники створили систему електронної пошти, яка може надсилати та отримувати повідомлення за допомогою генеративного штучного інтелекту, підключаючись до ChatGPT, Gemini та LLM з відкритим кодом LLaVA.
В одному випадку дослідники, діючи як зловмисники, написали електронний лист, який «отруює» базу даних ШІ-помічника електронної пошти, використовуючи пошуково-розширену генерацію (RAG). Коли RAG отримує електронний лист у відповідь на запит користувача та надсилає його GPT-4 або Gemini Pro для створення відповіді, він, кажуть дослідники, «зламує службу генеративного ШІ» і зрештою викрадає дані з електронних листів. Це можуть бути імена, номери телефонів, номери кредитних карток та будь-яка інша конфіденційна інформація.
«Згенерована відповідь, що містить конфіденційні дані користувача, коли вона використовується для відповіді на електронний лист, пізніше заражає нові хости», — говорить Нассі.
У другому методі, кажуть вчені, використовується зображення з вбудованою зловмисною підказкою, яке змушує помічника електронної пошти пересилати повідомлення іншим.
«Після кодування самовідтворюваної підказки будь-яке зображення, що містить спам, образливий матеріал або навіть пропаганду, може бути перенаправлено новим клієнтам», — пояснює Нассі.
Дослідники очікують на появу хробаків для генеративного штучного інтелекту в «диких» умовах вже у найближчі два-три роки. Також творці нового вірусу наголошують, що їхня робота є попередженням про недосконалість архітектури екосистем зі штучним інтелектом. Вони повідомили про свої висновки Google й OpenAI.
Оперативна пам'ять смартфона – це, можна сказати, місток між внутрішнім сховищем і процесором, вона допомагає…
Нещодавно видання Bloomberg поділилося інформацією про те, що Apple розробляє власний чіп Wi-Fi і Bluetooth,…
Авторитетний інсайдер і журналіст Bloomberg Марк Гурман поділився інформацією про те, що Apple працює над…
Google запропонувала змінити свою комерційну політику в бік "пом'якшення", щоб відійти від статусу монополіста, оскільки…
Якщо мій телефон раптом зникне, я буду діяти максимально швидко, щоб повернути його і захистити…
Нещодавно зарубіжні ЗМІ порушили питання про темп і ефективність розробки наступної моделі штучного інтелекту OpenAI,…