OpenAI, хоча й носить відкриту назву, насправді заслужила репутацію секретної компанії через низку проблем, що виникають у її розвитку. Один з останніх епізодів у цьому списку — злам системи обміну повідомленнями хакерами в початку 2023 року. Хакери змогли здобути доступ до внутрішніх розробок в галузі штучного інтелекту OpenAI. Цей інцидент був триманий в таємниці, компанія не повідомила про нього публічно.
Дві особи, які були інформовані про цей випадок, розповіли The New York Times, що керівництво OpenAI вирішило не розголошувати подробиці інциденту через те, що дані про клієнтів або партнерів не були скомпрометовані. Крім того, компанія не зверталася за допомогою до правоохоронних органів.
Заява OpenAI від Business Insider повідомила, що компанія виявила та виправила основну проблему безпеки, яка призвела до злому. Зазначалося, що злам вчинив приватна особа без зв’язків з урядом, і жоден репозиторій вихідного коду не було пошкоджено.
Цей інцидент став приводом для серйозних обговорень як всередині, так і поза межами компанії, оскільки безпека OpenAI вважається досить вразливою. Це є особливо важливим в контексті глобальних конкурентних відносин у галузі штучного інтелекту між США та Китаєм, де обидві країни прагнуть лідерства.
Працівники компанії також висловлюють серйозні турботи стосовно безпеки. Леопольд Ашенбреннер, колишній член ради директорів OpenAI, стверджував, що його звільнили через те, що він підняв питання про серйозний інцидент безпеки. Він описав стан безпеки в компанії як кричуще недостатній для захисту від зловмисників з-за кордону.
Ашенбреннер був частиною команди, що відповідала за забезпечення безпеки розробок OpenAI. Через місяць після його звільнення, ще двоє провідних членів цієї команди покинули компанію, що призвело до значного розпаду команди. Одним з них був співзасновник та головний вчений OpenAI Ілля Суцкевер, який заявив про свій відхід через розбіжності з керівництвом щодо безпеки технології. Кілька годин після його заяви також пішов і Ян Лейке, що додатково підкреслює напружену обстановку в компанії.
Відповідь OpenAI на ці події включає створення нового комітету з безпеки та захисту, в якому ключову роль грає Пол Накасоне, колишній директор АНБ та голова Кіберкомандування США. Цей крок свідчить про серйозні зусилля компанії підвищити свій рівень безпеки. Однак, найм Накасона не обійшовся без суперечок, особливо відомий критик приватності інформації Едвард Сноуден відзначив, що цей крок може поставити під загрозу права людини на конфіденційність.
Цей інцидент та його наслідки підкреслюють серйозні виклики та проблеми, які стикаються сучасні технологічні гіганти, особливо у контексті зростаючих загроз кібербезпеки та захисту даних.