Нейромережа ChatGPT на основі штучного інтелекту, та інші подібні моделі й чат-боти можуть нести в собі небезпеку, цілком порівнянну з ядерною зброєю. Якщо людині не вдасться повноцінно контролювати їхню діяльність, то вони й самі в майбутньому зможуть створити досконалішу модель штучного інтелекту. Таку думку озвучив письменник та історик Юваль Ной Харарі у своїй статті для видання The Economist.
Фахівець при цьому нагадав, що ШІ та нейромережі здатні самостійно розвиватися без людського контролю за цим процесом. “Якщо ядерна бомба сама по собі не здатна винайти потужнішу і більш руйнівну зброю, то штучний інтелект потенційно може розробити потужнішу свою копію без відповідних обмежень”, – попереджає Харарі. Водночас писати наголошує, що сучасні розробки в галузі ШІ обов’язково мають використовуватися винятково для благих цілей, наприклад, для пошуку ліків від онкології або розв’язання глобальних екологічних проблем.
Водночас автор припускає, що в майбутньому нейромережі почнуть активно використовувати для створення фейкових новин або політичного контенту, що також може нести в собі певну небезпеку з погляду стабільного і мирного існування світової спільноти.
У магазині додатків App Store з'явився новий мобільний додаток SocialAI, який є аналогом X (Twitter).…
Хакери продовжують вдосконалювати методи викрадення користувацьких даних, і однією з останніх загроз стало шкідливе ПЗ…
У середині вересня OpenAI представила нову модель штучного інтелекту під назвою o1, раніше відому як…
Apple зняла ембарго на публікацію оглядів нових iPhone, що дало змогу дізнатися більше про новинки.…
Нещодавно Samsung випустила велике оновлення One UI 6.1.1 для флагманської серії Galaxy S23, але вже…
За інформацією ресурсу Galaxy Club, новий смартфон Samsung Galaxy S25+, який є другою за вартістю…