Нейромережу ChatGPT порівняли за небезпекою з ядерною зброєю

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Нейромережа ChatGPT на основі штучного інтелекту, та інші подібні моделі й чат-боти можуть нести в собі небезпеку, цілком порівнянну з ядерною зброєю. Якщо людині не вдасться повноцінно контролювати їхню діяльність, то вони й самі в майбутньому зможуть створити досконалішу модель штучного інтелекту. Таку думку озвучив письменник та історик Юваль Ной Харарі у своїй статті для видання The Economist.

Фахівець при цьому нагадав, що ШІ та нейромережі здатні самостійно розвиватися без людського контролю за цим процесом. “Якщо ядерна бомба сама по собі не здатна винайти потужнішу і більш руйнівну зброю, то штучний інтелект потенційно може розробити потужнішу свою копію без відповідних обмежень”, – попереджає Харарі. Водночас писати наголошує, що сучасні розробки в галузі ШІ обов’язково мають використовуватися винятково для благих цілей, наприклад, для пошуку ліків від онкології або розв’язання глобальних екологічних проблем.

Водночас автор припускає, що в майбутньому нейромережі почнуть активно використовувати для створення фейкових новин або політичного контенту, що також може нести в собі певну небезпеку з погляду стабільного і мирного існування світової спільноти.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Підписуйтесь на нас в Google News, Facebook та TikTok 

РЕКЛАМА

Глибокі знання та досвід Софії у сфері технічної підтримки зробили її надійним помічником у вирішенні проблем, а пристрасть до технологій спонукала її ділитися своїми знаннями з іншими за допомогою свого контенту. Як людина, яка щодня працює над усуненням проблем і навчає своїх користувачів користуватися всіма доступними інструментами, маючи лише обліковий запис Google, її висвітлення новин, як правило, зосереджене на наданні читачам більш зручної для користувача точки зору та деяких менш відомих цікавинок на цю тему.