Оскільки хакери розробляють нові методи проникнення у ваші пристрої, генеративний штучний інтелект (GenAI) став головною загрозою цьогоріч, оскільки кіберзлочинці використовують моделі ChatGPT і Gemini AI для поліпшення своїх методів. Великі мовні моделі (LLM) – це тільки початок нового прориву у сфері хакерства.
“Важливо усвідомлювати, що це тільки початок еволюції GenAI, і багато хто з демонстрацій, які ми бачили в операціях безпеки та безпеці застосунків, показують реальні перспективи”, – говорить Річард Аддіскотт, старший директор-аналітик Gartner.
GenAI займає значний простір серед керівників служб безпеки, що є ще однією проблемою, з якою потрібно впоратися, але також дає можливість використовувати свої можливості для підвищення безпеки на оперативному рівні. Неминучість того, що треті сторони зіткнуться з інцидентами в галузі кібербезпеки, змушує керівників служби безпеки більше зосередитися на інвестиціях, орієнтованих на стійкість, і відійти від попередньої комплексної перевірки.
“Почніть зі зміцнення планів дій у надзвичайних ситуаціях для дій третіх сторін, які становлять найбільший ризик кібербезпеки”, – сказав Аддіскотт.
Як показав звіт, опублікований минулого місяця, більше ніж одна з чотирьох організацій заборонила використання GenAI через ризики конфіденційності та безпеки даних.
Згідно з “Бенчмарковим дослідженням конфіденційності даних Cisco 2024”, більшість компаній обмежують використання генеративного штучного інтелекту (GenAI) через питання конфіденційності та безпеки даних, а 27 відсотків компаній заборонили його використання, принаймні тимчасово.
Серед основних проблем підприємства назвали загрози законним правам і правам інтелектуальної власності організації (69 відсотків), а також ризик розкриття інформації громадськості або конкурентам (68 відсотків).