Наскільки небезпечний штучний інтелект. Шість головних проблем

ЗАРАЗ ЧИТАЮТЬ

Час читання: 3 хв.

Нещодавно ми розповідали про те, що Ілон Маск, Стів Возняк та інші авторитетні персони зі світу IT виступають проти такого активного розвитку штучного інтелекту. Свій скептицизм щодо ШІ вони пояснюють зокрема тим, що навіть самі творці не до кінця розуміють сучасні системи на базі штучного інтелекту та їхні потенційні ризики. І сьогодні ми пропонуємо розібратися в тому, наскільки небезпечний штучний інтелект і чи дійсно за системами на машинному навчанні майбутнє.

Реклама

Зізнаємося одразу, що важко зрозуміти, наскільки небезпечний штучний інтелект, оскільки він невидимий і діє з власної волі. Але зрозуміло одне: ми рухаємося до майбутнього, в якому штучний інтелект зможе виконувати більше, ніж одне чи два завдання.

Через кілька місяців після випуску ChatGPT розробники почали випускати різні системи на основі ШІ, які можуть виконувати реальні завдання. Наразі один із найпопулярніших інструментів – це AutoGPT, який, як з’ясували допитливі користувачі, здатний робити все – від замовлення піци до запуску веб-сайту електронної комерції. Чат-боти вже можуть самі давати собі інструкції та виконувати реальні завдання. Але що найбільше турбує скептиків ШІ, то це те, що галузь розвивається швидше, ніж законодавство або навіть середня людина може за нею наздогнати.

Деякі скептично налаштовані експерти впевнені, що надрозумний штучний інтелект може призвести до краху людської цивілізації. Так, американський фахівець зі штучного інтелекту Елієзер Юдковський відкрито виступає проти таких розробок, оскільки впевнений, що найвірогіднішим результатом активного розвитку буде створення штучного інтелекту, який не робитиме те, що хоче людина, та не турбуватиметься ні про користувачів, ні про розумне життя загалом.

“Якщо хтось створить надто потужний ШІ в нинішніх умовах, я очікую, що незабаром після цього помре кожен представник людського роду і все біологічне життя на Землі”, – заявляє Юдковський.

Єдиним виходом, на його думку, має стати припинення розвитку ШІ доти, доки ми не зможемо привести штучний інтелект у відповідність із людськими цінностями.

То чим же насправді небезпечний штучний інтелект? Насправді, про ці небезпеки говорили ще десятиліття тому. Так, у фільмі “Той, хто біжить по лезу”, що вийшов у прокат у далекому 1982 році, було представлено ідею істот зі штучним інтелектом, які здатні виражати емоції і копіювати поведінку людини. І хоча на даний момент такий ШІ все ще є фантастикою, технології досягли того рівня, коли стає важко відрізнити людину від комп’ютера. Досить поглянути на діалоговий штучний інтелект, представлений чат-ботами на кшталт ChatGPT і Bing Chat.

Одна з головних небезпек, яку приховує в собі штучний інтелект, полягає в тому, що чат-боти на основі ШІ можуть вводити в оману й маніпулювати і водночас здаватися реальними та переконливими.

Нещодавно Microsoft внесла в роботу свого чат-бота Bing Chat обмеження, щоб система не говорила про себе в бесіді з користувачами. Але за той короткий час, поки можливості Bing Chat були необмежені, багато користувачів повірили, що в них встановився справжній емоційний зв’язок із чат-ботом.
Ще одна проблема ШІ – це дезінформація. Навіть найостанніші моделі на кшталт OpenAI GPT-4 роблять помилки, видаючи неправдиву інформацію за правду, особливо коли йдеться про такі теми, як математика і програмування.

На думку експертів, без достатньо різноманітних навчальних даних штучний інтелект даватиме упереджені відповіді.

Ось деякі з головних небезпек, пов’язаних з активним розвитком штучного інтелекту:

  1. Руйнівні автономні системи: якщо ШІ-системи стануть здатними діяти автономно без належного контролю або обмежень, виникне ризик їхнього зловживання або неправильного використання. Непередбачувані автономні системи можуть становити загрозу для безпеки і призводити до небажаних наслідків.
  2. Втрата робочих місць: автоматизація штучного інтелекту можуть призвести до заміщення працівників роботами та комп’ютерними системами. Можливість втрати робочих місць і зростаюче безробіття є серйозними соціальними та економічними проблемами.
  3. Порушення приватності та конфіденційності: активне використання ШІ веде до збору та аналізу великих обсягів даних. Порушення приватності та неправильне використання персональних даних можуть спричинити серйозні наслідки, такі як витік особистої інформації, маніпуляції або дискримінація.
  4. Потенційна зброя: ШІ-технології можуть бути використані для розроблення і застосування нових видів озброєнь, включно з автономними системами озброєння. Неправильне використання або випадкове ввімкнення таких систем може призвести до серйозних військових конфліктів або військових помилок.
  5. Неупередженість: ШІ-системи засновані на алгоритмах, які можуть бути схильні до пре
Реклама

Вас також можуть зацікавити новини:

Не пропустіть

СВІЖІ НОВИНИ