Співробітники OpenAI попередили про небезпеки просунутого ШІ

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: 2 хв.

Кілька нинішніх і колишніх співробітників OpenAI і Google DeepMind виступили з відкритим листом, у якому попереджають про небезпеки просунутого ШІ та відсутність контролю за компаніями, що працюють над ШІ-технологіями.

На думку співробітників, розвиток ШІ несе в собі низку ризиків, включно з подальшим укоріненням наявної у світі нерівності, маніпуляціями і дезінформацією, а також втратою контролю над автономними ШІ-системами, що, як ідеться в листі, може призвести до вимирання людства.

Реклама

Компанії, що займаються розробкою штучного інтелекту, мають “сильні фінансові стимули” для того, щоб продовжувати розробку і не ділитися інформацією про заходи захисту та рівень ризику.

“Ми не думаємо, що на них можна покластися в тому, що вони будуть ділитися нею добровільно”, – наголошується в листі, в якому йдеться про те, що нинішні і колишні співробітники повинні висловити свою думку.

Співробітники в кінцевому підсумку закликають компанії, що займаються розробкою штучного інтелекту, забезпечити надійний захист джерел, що розкривають інформацію про ризики, пов’язані зі штучним інтелектом:

  • Уникайте створення або примусового виконання угод, що перешкоджають критиці щодо проблем, пов’язаних із ризиками.
  • Запропонуйте співробітникам перевірений анонімний процес, що дає змогу донести інформацію про пов’язані з ризиками проблеми до ради директорів, регулювальних органів і незалежних організацій, які мають відповідний досвід.
  • Підтримуйте культуру відкритої критики, що дозволяє співробітникам висловлювати громадськості, раді директорів, регулювальним органам тощо побоювання, пов’язані з ризиками, що стосуються технологій, за умови захисту комерційної таємниці.
  • Не допускайте репресій щодо співробітників, які публічно діляться конфіденційною інформацією, пов’язаною з ризиками, після того як інші процеси не дали результатів.

Лист підписали 13 осіб, зокрема сім колишніх співробітників OpenAI, чотири нинішніх, один колишній співробітник Google DeepMind і ще один чинний співробітник Google DeepMind. OpenAI погрожує працівникам втратою їхньої пайової участі за висловлювання, а також змушує їх підписувати “драконівські” NDA, які перешкоджають критиці на адресу компанії.

Лист з’явився в той момент, як Apple готується анонсувати безліч функцій, заснованих на штучному інтелекті, в iOS 18 та інших оновленнях програмного забезпечення найближчого понеділка. компанія працює над власними функціями штучного інтелекту, які будуть вбудовані в додатки по всій операційній системі, а також уклала угоду з OpenAI для інтеграції функцій ChatGPT в iOS 18.

 

Реклама

Вас також можуть зацікавити новини:

Не пропустіть

СВІЖІ НОВИНИ