Categories: Технології

Илон Маск предсказывает восстание машин с искусственным интеллектом

Share
Час читання: 2 хв.

Основатель аэрокосмической компании SpaceX и фирмы электро автопроизводителя Tesla Илон Маск сообщил о большой вероятности того, что искусственный интеллект (ИИ) станет угрозой человечеству в будущем.

Маск подтвердил, что все мысли об ИИ пока сводятся к “слиянию” с машинами, – передает УНН

Он создал запуск, посвященный разработке технологии интерфейса “мозг-компьютер” (BCI). Но, несмотря на то, что его собственная лаборатория Open AI создала ИИ, способный воспроизводить себя самостоятельно, Маск недавно заявил, что усилия, направленные на то, чтобы защитить ИИ, имеют лишь “пять-десять процентов шансов на успех”.

“Я не имею всех ответов. Я не говорю, что у меня есть все черные ответы. Я пытаюсь выяснить, набор действий, которые я могу принять, для более хорошего будущего”, – заявил он, комментируя революцию ИИ.

Несмотря на значительное участие Маска в развитии ИИ, он открыто признал, что технология приносит не только потенциал, но и обещает серьезные проблемы.

“Думаю, что в конце концов искусственный интеллект прикончит нас всех,” – утвердил он.

В частности, существуют такие вызовы введение ИИ: во-первых, главная цель разработчиков заключается в построении ИИ, который не только умнее, чем человек, но способен учиться самостоятельно, без всякого человеческого программирования или вмешательства.

Поэтому существует риск того, что люди потеряют контроль над машинами, которые не имеют морали, раскаяния или эмоций. Есть еще вариант при котором машины могут различать “хорошие” и “плохие” действия, но это только человеческие чувства.

Он рассказал, что сейчас есть только несколько компаний, которые существенно контролируют сектор ИИ в качестве примера он привел Google DeepMind.

“В Facebook, Google и Amazon – и, возможно, Apple, но они, похоже, заботятся о конфиденциальности – у них больше информации о вас, чем вы можете помнить”, – сказал Маск.

“Существует большой риск концентрации власти. Итак, если AGI (искусственный общий интеллект), который будет иметь безграничный объем власти, должен ли он руководствоваться несколькими людьми в Google без дополнительного надзора?” – добавил он.

Однако Маск сообщил, что самым важным для всех разработчиков должна быть безопасность, а также отсутствие паники.

Кроме того, он сообщил о разрешении на строительство подземного транспортного тоннеля.

Напомним, Илон Маск рассказал про угрозу, опаснее КНДР.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло
  • Останні записи

    Як зрозуміти, що додаток збирає ваші дані без дозволу

    Щороку ми завантажуємо мільярди додатків на смартфони — щоб швидко спілкуватися, займатися банкінгом, редагувати фото…

    14.11.2024

    Google робить свій смартфон потужнішим за допомогою Linux

    В Android 15 QPR2 Beta 1 Google представила нову функцію - Terminal, що дозволяє запускати…

    14.11.2024

    Apple набирає обертів у галузі ШІ, поки конкуренти зволікають у розвитку

    Apple Intelligence з'явився тільки минулого місяця, і деякі з його найцікавіших функцій будуть доступні з…

    14.11.2024

    В Україні зросла кількість злочинів за участю популярних додатків

    За останні кілька років все частіше виявляється, що месенджери використовуються як інструменти для злочинів. З…

    14.11.2024

    Стало відомо, коли представлять смартфони Samsung Galaxy S25

    Схоже, компанія Samsung не буде вкотре зрушувати терміни запуску своїх флагманських смартфонів ближче до початку…

    14.11.2024

    В OpenAI запропонували владі США та їхнім союзникам об’єднатися для протистояння Китаю у сфері ШІ

    Компанія OpenAI виступила з пропозицією американській владі і союзникам США про створення "Північноамериканського договору зі…

    14.11.2024