GPT-4o виявилася вразливою для злому і може використовуватися для шахрайства

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: < 1 хв.

Сьогодні, коли штучний інтелект розвивається надзвичайно швидко, можна легко натрапити на фейкові зображення й відео, створені за допомогою ШІ. Серед найпопулярніших інструментів зараз виділяються ChatGPT-4.0 від OpenAI та Gemini від Google, і, звісно, лідером у цьому є саме ChatGPT-4.0. Ця модель вже вміє генерувати дуже реалістичні відео за участю справжніх людей, що робить її інструментом з великим потенціалом, але й ризиками. Деякі дослідження показали, що GPT-4.0 можна зламати.

Що ще варто знати

За інформацією BleepingComputer, існують ризики, пов’язані з вразливістю ChatGPT-4.0 до злому, що може відкрити двері до різноманітних голосових шахрайств. Дослідники виявили, що API для голосового управління можна використовувати для створення оманливих схем, і хоча їх ефективність буває різною, це викликає занепокоєння, особливо через використання синтезованого голосу.

Реклама

Джерела також стверджують, що нелегальні версії GPT-4.0 можуть стати «багатомільйонною проблемою». Ці піратські версії використовують технології DeepFake та текстові синтезатори, що дозволяє їм створювати голосові підробки та фальшиві відео без участі реальної людини. Це може значно ускладнити боротьбу з шахрайськими схемами.

У розмові з BleepingComputer представники OpenAI підтвердили, що нова версія ChatGPT наразі тестується і має вдосконалені механізми захисту від подібних маніпуляцій. Вони зазначили, що робота над покращенням функціоналу ШІ ведеться постійно, щоб зробити його безпечнішим і водночас залишити можливість для творчості.

Проте навіть остання версія ChatGPT з голосовим помічником може бути використана в шахрайських схемах. Хоча в ній додано механізми для захисту від зловживань, деяким хакерам вже вдалося знайти способи обходу цих бар’єрів і створити інструменти для експлуатації вразливостей, як повідомляє джерело.

Реклама

Вас також можуть зацікавити новини:

Не пропустіть

СВІЖІ НОВИНИ