Статті

Експерти назвали десять найпопулярніших помилок про комп’ютери

Share
Час читання: 2 хв.
Видання TechSpot назвало десять найпопулярніших помилок про комп’ютерне “залізо”. І пояснило, чому в реальності все інакше, ніж багато хто думає.

Перший міф говорить, що процесори можна порівнювати між собою кількістю ядер і тактовою частотою. Однак на ділі існує стільки різних варіацій з різними параметрами, що оцінювати CPU за такими простими критеріями неможливо. Звичайно, шестиядерний процесор буде швидше точно такого ж чотириядерного, але сучасні чіпи занадто складно влаштовані і відрізняються один від одного низкою параметрів. Потрібно враховувати і енергоспоживання, і специфіку окремих виконуваних процесором завдань, і безліч інших речей.

Друга помилка – тактова частота є найважливішим індикатором продуктивності. Однак в реальності два процесори одній ціновій категорії, що працюють на одній частоті, можуть значно відрізнятися в продуктивності.

Третій міф говорить про те, що CPU – це головний чіп в пристрої. Насправді CPU є лише частиною загальної системи. Зараз все розвивається по шляху гетерогенних обчислювальних систем, в яких використовуються різні типи обчислювальних блоків.

Через четверту помилку багато критикують Intel, яка до сих пір використовує для своїх чіпів 14-нм технологію. Але експерти пишуть, що «міряти» чіпи по техпроцесу теж не зовсім вірно. До тих пір, поки два чіпи знаходяться в межах приблизно одного покоління, той, у кого транзистори менше, не обов’язково буде мати більше переваг.

П’ятий міф стосується кількості ядер GPU. Порівнювати графічні процесори за цим показником теж некоректно. Шоста брехня схоже на попередні, але відноситься вже до FLOPS. Справа в тому, що при вимірюванні цього показника можуть ігноруватися важливі чинники, наприклад пропускна здатність пам’яті. До того ж компанії можуть дурити і завищувати цифри.

Сьомий міф – ARM створює чіпи. Однак ця компанія не робить фізичні чіпи, вона розробляє схеми їх роботи. Восьма брехня стосується протистояння ARM і x86. Але треба розуміти, що ці дві архітектури не конкурують, вони служать для різних завдань. x86 дозволяє фокусуватися на максимальній продуктивності, а ARM – на енергетичну ефективність.

Дев’ятий міф говорить, що GPU швидше CPU, а десятий – що процесори будуть завжди ставати лише швидше. Справа в тому, що зі зменшенням розмірів транзисторів виникають фундаментальні проблеми, які складно подолати. Крім того, гостро стоїть питання з ростом споживання енергії та межами можливостей систем охолодження. Швидше за все, ми довгий час не побачимо таких же темпів приросту продуктивності в процесорах, які спостерігалися раніше.

Скарбик Павло

Закінчив Тернопільський національний технічний університет, почав писати про IT у 2015 році. Люблю розповідати про iPhone і Mac, автомобілі, їжу, гаджети розумного будинку і роблю огляди. Також захоплююся спортом а саме баскетболом і активним відпочинком на свіжому повітрі. Головний редактор iTechua.com.

Опублікував
Скарбик Павло

Останні записи

Samsung представила нову технологію для вимірювання цукру в крові

Компанія Samsung представила революційну неінвазивну систему безперервного моніторингу глюкози (СНМГ). Це досягнення, яке тривалий час…

27.01.2025

Сем Альтман представив оновлення o3 mini з новими ШІ-агентами та відкритим доступом

Останнім часом ChatGPT стає ще крутішим. Якщо ви, як і я, використовуєте його для різних…

27.01.2025

Samsung Galaxy Z Flip 7 отримає основну камеру на 50 Мп і надширококутний об’єктив на 12 Мп

Зараз, коли Galaxy S25 починає з'являтися в магазинах і його можна оформити за попереднім замовленням,…

27.01.2025

AR-окуляри Apple працюватимуть на спеціальній версії visionOS

Компанія Apple, незважаючи на неоднозначне сприйняття шолома змішаної реальності Vision Pro публікою, не відмовляється від…

27.01.2025

S Pen з Bluetooth для Galaxy S25 Ultra стане окремим аксесуаром

"Бізнес є бізнес", - подумали в Samsung і викотили Galaxy S25 Ultra без нормального стилуса.…

27.01.2025

Новий HomePod стане головною новинкою Apple у 2025 році

Згідно з Марком Гурманом з Bloomberg, Apple планує випустити у 2025 році розумний домашній хаб,…

27.01.2025