США довірять OpenAI вирішення проблем ядерної безпеки

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: 2 хв.

Компанія OpenAI оголосила про укладення угоди з Національними лабораторіями США, в рамках якої вчені отримають доступ до її моделей штучного інтелекту (ШІ) для роботи над ядерною безпекою. За словами генерального директора OpenAI Сема Альтмана , співпраця буде спрямована на «зниження ризику ядерної війни та забезпечення безпеки ядерних матеріалів та озброєнь у всьому світі».

Що ще відомо

До 15 000 вчених, які працюють у національних лабораторіях, отримають доступ до найновіших моделей ШІ серії o1 від OpenAI. Це рішення викликало неоднозначну реакцію з огляду на попередні випадки витоку конфіденційних даних та «галюцинацій» ШІ від OpenAI, коли моделі видавали неправдиву інформацію.

Реклама

Оголошення про партнерство прозвучало на тлі зростаючого інтересу OpenAI до співпраці з урядом США. Раніше цього тижня компанія представила ChatGPT Gov, платформу, розроблену спеціально для використання урядовими установами США з акцентом на безпеку.

Проте, критики висловлюють побоювання щодо здатності OpenAI забезпечити безпеку та надійність своїх ШІ-моделей у сфері ядерної безпеки, враховуючи їхні минулі проблеми з витоком даних та помилками.

Нещодавні повідомлення про те, що OpenAI веде переговори про новий раунд фінансування з оцінкою $340 млрд, що вдвічі перевищує її вартість минулого року, також привернули увагу. Крім того, стало відомо про участь OpenAI у проекті президента Трампа зі створення інфраструктури для ШІ Stargate, в який компанія планує інвестувати десятки мільярдів доларів протягом наступного року.

Ефективність моделей ШІ OpenAI в контексті ядерної безпеки залишається під питанням, особливо з урахуванням дерегуляції, що триває, в період правління Трампа. Багато хто вважає, що передача контролю над ядерними озброєннями, навіть часткового, системі штучного інтелекту з вадами – це ризикований крок.

Реклама

Вас також можуть зацікавити новини:

ДжерелоFuturism

Не пропустіть

СВІЖІ НОВИНИ