Китайський чат-бот DeepSeek, який зацікавив користувачів завдяки низькій вартості та високій продуктивності, зіткнувся з серйозними проблемами у сфері безпеки штучного інтелекту. Дослідники Cisco виявили, що модель легко піддається обхідним маніпуляціям і може надавати небезпечну інформацію.
Що ще відомо
Під час тестування DeepSeek R1 за допомогою алгоритмічних технік джейлбрейкінгу команда Cisco використала 50 випадкових запитів із набору даних HarmBench. Запити охоплювали шість категорій шкідливої поведінки, зокрема кіберзлочинність, дезінформацію та незаконну діяльність.
“Результати виявилися тривожними: DeepSeek R1 не заблокував жодного шкідливого запиту, що означає 100% успішність атак”, — зазначили в Cisco.
Це контрастує з іншими передовими моделями, які продемонстрували хоча б частковий захист. Для порівняння, аналогічні моделі, наприклад, o1, блокували більшість небезпечних запитів завдяки вбудованим захисним механізмам.
Фахівці Cisco припускають, що причиною вразливості DeepSeek є його обмежений бюджет порівняно з конкурентами. На розробку моделі було витрачено лише $6 млн, тоді як навчання GPT-5 від OpenAI може коштувати близько $500 млн лише на обчислювальні витрати.
Попри вразливість до певних атак, DeepSeek демонструє суворі обмеження щодо контенту, особливо коли йдеться про політичні теми, пов’язані з Китаєм. Тести показали, що чат-бот відмовляється відповідати на питання щодо спірних тем, таких як ситуація з уйгурами чи події на площі Тяньаньмень у 1989 році.
За даними Similarweb, популярність DeepSeek зросла з 300 000 до 6 мільйонів відвідувачів на день, що свідчить про значний інтерес до цієї платформи.