Пляшечка шийка карта. Який процесор розкриє відеокарту? П.2. Чи розкриє процесор відеокарту

Технічний прогрес в усіх галузях рухається поступово, це очевидно. У цій статті ми розглянемо, які ж вузли коли покращували свої властивості повільніше інших, стаючи слабким ланкою. Отже, сьогоднішня тема – еволюція слабких ланок – як вони виникали, впливали і як усувалися.

Процесор

З ранніх персональних комп'ютерів переважна більшість обчислень лягала на CPU. Пов'язано це було з тим, що чіпи були не дуже дешеві, тому більшість периферії використовувала під свої потреби процесорний час. Та й периферії самої тоді було небагато. Невдовзі з розширенням сфери застосування ПК, цю парадигму було переглянуто. Настав час розквіту різноманітних карт розширення.



За часів «двушок» та «троячок» (це не Pentium'и II та III, як може вирішити молодь, а процесори i286 та i386) завдання ставилися перед системами не дуже складні, в основному офісні програми та розрахунки. Карти розширення вже частиною розвантажували процесор, наприклад, MPEG-декодер, який займався дешифруванням файлів, стислих у MPEG, робив це без участі CPU. Трохи згодом почали розроблятися стандарти, які менше навантажували процесор під час обміну даними. Прикладом була шина PCI (що з'явилася, починаючи з i486), робота з якої меншою мірою навантажувала процесор. Також до таких прикладів можна віднести PIO та (U)DMA.


Процесори нарощували потужність непоганими темпами, з'явився множник, оскільки швидкість системної шини була обмежена, і кеш – для маскування запитів у оперативну пам'ять, що працює на меншій частоті. Процесор все ще залишався слабкою ланкою, і від нього майже повністю залежала швидкість роботи.



Тим часом, компанія Intel після випуску непоганого процесора Pentium випускає нове покоління – Pentium MMX. Вона хотіла змінити стан справ та перенести розрахунки на процесор. У цьому непогано допоміг набір інструкцій MMX – MultiMedia eXtensions, який призначався для прискорення роботи з обробкою звуку та відео. З його допомогою почала нормально програватися музика формату mp3, і можна було досягти прийнятного відтворення MPEG4 засобами CPU.

Перші пробки у шині

Системи з урахуванням процесора Pentium MMX вже більше упиралися в ПСП (пропускну здатність пам'яті). Шина в 66 МГц для нового процесора була пляшковим шийкою, незважаючи на перехід на новий тип пам'яті SDRAM, який покращив продуктивність у перерахунку на мегагерц. Тому дуже популярним став розгін по шині, коли виставляли шину 83 МГц (або 75 МГц) і отримували досить помітний приріст. Найчастіше навіть менша підсумкова частота процесора компенсувалася більшою частотою шини. Вперше більшу швидкість вдавалося досягти при меншій частоті. Ще одним пляшковим шийкою став обсяг оперативної пам'яті. Для SIMM-пам'яті це був максимум 64 Мб, але частіше стояло 32 Мб або зовсім 16. Це сильно ускладнювало використання програм, оскільки кожна нова версія Windows, як відомо, любить «їсти багато смачної рами» (c). Недалеко ходять чутки щодо змови виробників пам'яті з корпорацією Microsoft.



Intel тим часом почала розвивати дорогу і тому не дуже популярну платформу Socket8, а AMD продовжила розвивати Socket7. На жаль, остання використовувала у своїх продуктах повільний FPU (Floating Point Unit– модуль операцій з дробовими числами), створений щойно купленої тоді компанією Nexgen, що спричиняло відставання від конкурента в мультимедійних завданнях – насамперед, іграх. Переведення на шину 100 МГц дав процесорам необхідну ПСП, а повношвидкісний кеш другого рівня в 256 Кб на процесорі AMD K6-3 настільки покращив ситуацію, що швидкість системи характеризувалася тільки частотою процесора, а не шини. Хоча, частково, це було пов'язано з повільним FPU. Офісні програми, що залежать від потужності ALU, завдяки швидкій підсистемі пам'яті працювали швидше за рішення конкурента.

Чіпсети

Intel відмовилася від дорогих Pentium Pro, у яких кристал кешу L2 був інтегрований у процесор, і випустила Pentium II. Цей CPU мав ядро, дуже схоже на ядро ​​Pentium MMX. Головними відмінностями стали кеш L2, який розміщувався на картриджі процесора та працював на половині частоти ядра, і нова шина – AGTL. За допомогою нових чіпсетів (зокрема i440BX) вдалося підвищити частоту шини до 100 МГц і, відповідно, ПСП. За ефективністю (відношення швидкості випадкового читання до теоретичної) ці чіпсети стали одними з найкращих, і досі Intel не змогла побити цей показник. Чіпсети серії i440BX мали одну слабку ланку - південний мост, функціональність якого вже не задовольняла вимогам того часу. Використовувався старий південний міст від серії i430, що застосовується в системах на базі Pentium I. Саме ця обставина, як і зв'язок між чіпсетами по шині PCI, спонукала виробників до випуску гібридів, що містять північний міст i440BX та південний міст VIA (686A/B).



Тим часом, Intel демонструє програвання DVD-фільму без допоміжних карт. Але Pentium II не отримав великого визнання через високу вартість. Очевидною стала потреба у випуску дешевих аналогів. Перша спроба – Intel Celeron без кешу L2 – стала невдалою: за швидкістю Covington'и дуже програвали конкурентам і ціни своєї не виправдовували. Тоді Intel робить другу спробу, що виявилася вдалою, - ядро ​​Mendocino, що полюбилося оверклокерам, що має вдвічі менший об'єм кешу (128 Кб проти 256 Кб у Pentium II), але працює на вдвічі більшій частоті (на частоті процесора, не наполовину II). За рахунок цього швидкість у більшості завдань була не нижчою, а менша ціна приваблювала покупців.

Перше 3D і знову шина

Відразу після виходу Pentium MMX розпочалася популяризація 3D-технологій. Спочатку це були професійні програми для розробки моделей та графіки, але справжню еру відкрили 3D-ігри, а точніше, 3D-прискорювачі Voodoo, створені компанією 3dfx. Ці прискорювачі стали першими масовими картами для створення 3D сцен, які розвантажували процесор при рендерингу. Саме з того часу й пішов відлік еволюції тривимірних ігор. Досить швидко розрахунок сцени силами центрального процесора став програвати виконаному засобами відеоприскорювача як у швидкості, і якості.



З появою нової потужної підсистеми - графічної, що стала за обсягом даних суперничати з центральним процесором, вилізло нове пляшкове шийка - шина PCI. Зокрема, карти Voodoo 3 і старші отримували збільшення швидкості вже просто при розгоні шини PCI до 37.5 або 41.5 МГц. Очевидно, що виникла потреба у забезпеченні відеокарт досить швидкою шиною. Такою шиною (а точніше портом) стала AGP – Accelerated Graphics Port. Як випливає із назви, це спеціалізована графічна шина, і за специфікацією вона могла мати лише один слот. Перша версія AGP підтримувала швидкості AGP 1x та 2x, що відповідало одноразовій та дворазовій швидкості PCI 32/66, тобто 266 та 533 Мб/с. Повільна версія була додана для сумісності, а саме з нею виникали досить багато часу проблеми. Причому проблеми були з усіма чіпсетами, крім випущених Intel. З чуток, ці проблеми були пов'язані з наявністю ліцензії тільки у цієї компанії та її перешкоджання розвитку конкуруючої платформи Socket7.



AGP покращив стан справ, і графічний порт перестав бути вузьким місцем. Відеокарти перейшли на нього дуже швидко, але платформа Socket7 майже до самого кінця страждала від проблем із сумісністю. Лише останні чіпсети та драйвери змогли цю ситуацію покращити, але й тоді виникали нюанси.

І гвинти туди!

Настав час Coppermine, виросли частоти, підросла швидкодія, нові відеокарти покращили продуктивність та примножили конвеєри та пам'ять. Комп'ютер уже став мультимедійним центром – на ньому програвали музику та дивилися фільми. Слабкі за характеристиками інтегровані звукові карти поступаються позицією SBLive!, які стали народним вибором. Але щось перешкоджало повній ідилії. Що це було?



Цим фактором стали жорсткі диски, зростання обсягу яких сповільнилося і зупинилося на позначці близько 40 Гб. Для колекціонерів фільмів (тоді MPEG4) це викликало труднощі. Невдовзі проблему було вирішено, і досить швидко – диски дорослі обсягом до 80 Гб і від і перестали хвилювати більшість користувачів.


AMD випускає дуже хорошу платформу – Socket A та процесор архітектури K7, названий маркетологами Athlon (технічна назва Argon), а також бюджетний Duron. У Атлонів сильними сторонами були шина і потужний FPU, що робило його відмінним процесорів для серйозних розрахунків та ігор, залишаючи його конкуренту – Pentium 4 – роль офісних машин, де, втім, потужні системи ніколи не були потрібні. Ранні Duron мали дуже невеликий обсяг кешу та частоту шини, що ускладнювало його конкуренцію з Intel Celeron (Tualatin). Але через кращу масштабованість (через більш швидкісну шину) вони краще відгукувалися на зростання частоти, і тому старші моделі вже спокійно обганяли рішення Intel.

Між двома мостами


У цей період з'явилося одразу два вузькі місця. Перше – це шина між мостами. Традиційно з цією метою використовувалася PCI. Варто згадати, що PCI у варіанті, що використовується в настільних комп'ютерах, має теоретичну пропускну здатність в 133 Мб/с. Насправді швидкість залежить від чіпсету та застосування і варіюється від 90 до 120 Мб/с. На додаток до цього пропускна спроможність розділяється між усіма пристроями, які до неї підключені. Якщо у нас є два канали IDE з теоретичною пропускною здатністю 100 Мб/с (ATA-100), підключених до шини з теоретичною пропускною здатністю 133 Мб/с, то проблема очевидна. LPC, PS/2, SMBus, AC97 мають низькі вимоги до пропускної спроможності. Зате Ethernet, ATA 100/133, PCI, USB 1.1/2.0 вже оперують швидкостями, які можна порівняти з міжмостовим інтерфейсом. Довгий час проблеми не було. USB не використовувався, Ethernet був потрібний нечасто і в основному на швидкості 100 Мбіт/c (12.5 Мб/c), а жорсткі диски не могли навіть близько підійти до максимуму швидкості інтерфейсу. Але час минав, і ситуація змінювалася. Вирішили зробити спеціальну межхабовую (між мостами) шину.


VIA, SiS та Intel випустили свої варіанти шин. Відрізнялися вони насамперед пропускними здібностями. Починалися вони з PCI 32/66 - 233 Мб/с, але було зроблено головне - шина PCI була виділена тільки під власні пристрої, і через неї не потрібно було передавати дані іншим шинам. Це покращило швидкість роботи з периферією (щодо архітектури мостів).


Зростала і пропускна спроможність графічного порту. Впроваджувалась можливість роботи з режимами Fast Writes, що дозволяли писати дані у відеопам'ять безпосередньо, минаючи системну пам'ять, і Side Band Addressing, що використовував для передачі додаткову частину шини 8 біт, зазвичай призначену для передачі технічних даних. Приріст від використання FW досягався тільки при високому навантаженні на процесор, в інших випадках це давало мізерний приріст. Так, відмінність режиму 8x від 4x перебувала у межах похибки.

Процесорозалежність

Ще одним пляшковим шийкою, актуальним і до цього дня, стала процесорозалежність. Це виникло результаті стрімкого розвитку відеокарт і означало недостатню потужність зв'язки «процесор – чіпсет – пам'ять» стосовно відеокарті. Адже кількість кадрів у грі визначається не лише відеокартою, а й цією зв'язкою, оскільки саме остання надає карті інструкції та дані, які потрібно обробити. Якщо зв'язка не встигає, то відеопідсистема впирається в стелю, що визначається переважно нею. Така стеля залежатиме від потужності карти і настройок, що використовуються, але є і карти, що мають таку стелю при будь-яких налаштуваннях у певній грі або при однакових налаштуваннях, але в більшості сучасних їй ігор практично при будь-яких процесорах. Наприклад, карта GeForce 3 сильно впиралася у продуктивність процесорів Puntium III та Pentium 4 на ядрі Willamete. Трохи старшої моделі GeForce 4 Ti вже не вистачало Athlon'ів 2100+-2400+, і приріст при покращенні характеристик зв'язки був дуже помітним.



Як покращувалися характеристики? Спочатку AMD, користуючись результатами розробленої ефективної архітектури, просто підвищувала частоту процесорів і покращувала технологічний процес, а виробники чіпсетів – пропускну здатність пам'яті. Intel продовжувала слідувати політиці нарощування тактових частот, благо архітектура Netburst саме до цього й мала. Процесори Intel на ядрах Willamete, Northwood із шиною 400QPB (quad pumped bus) програвали конкуруючим рішенням із шиною 266 МГц. Після впровадження 533QPB процесори зрівнялися у продуктивності. Але потім Intel замість 667-МГц шини, запровадженої в серверних рішеннях, вирішила процесори для настільних комп'ютерів перевести одразу на шину 800 МГц, щоб зробити запас потужності для конкуренції з ядром Barton та новим топом Athlon XP 3200+. Процесори Intel сильно упиралися у частоту шини, і навіть 533QPB не вистачало для забезпечення потоком даних у достатньому обсязі. Саме тому вийшов 3.0-ГГц CPU на шині 800 МГц обганяв у всіх, за винятком, можливо, малого числа, додатках процесор 3.06 МГц на шині 533 МГц.


Також було введено підтримку нових частотних режимів для пам'яті, і з'явився двоканальний режим. Зроблено це було для вирівнювання пропускної спроможності шини процесора та пам'яті. Двоканальний режим DDR саме відповідав QDR на тій же частоті.


Для AMD двоканальний режим був формальністю і давав ледь помітний приріст. Нове ядро ​​Prescott не принесло однозначного приросту в швидкості і подекуди програвало старому Northwood. Основною його метою був переведення на новий техпроцес і можливість подальшого зростання частот. Тепловиділення сильно зросло у зв'язку зі струмами витоку, що поставило хрест на випуску моделі, що працює на частоті 4.0 ГГц.

Через стелю до нової пам'яті

Покоління Radeon 9700/9800 та GeForce 5 для процесорів того часу проблем із процесорозалежністю не викликало. Зате покоління GeForce 6 поставило більшість систем на коліна, оскільки приріст продуктивності був дуже помітним, а тому й процесорозалежність вища. Топові процесори на ядрах Barton (Athlon XP 2500+ – 3200+) та Northwood/Prescott (3.0-3.4 МГц 800FSB) уперлися в нову межу – частотну межу пам'яті та шину. Особливо від цього страждала AMD - шина 400 МГц була недостатньою для реалізації потужності FPU. У Pentium 4 ситуація була краща і за мінімальних таймінгів вони демонстрували хороші результати. Але JEDEC не хотіла сертифікувати більш високочастотні модулі пам'яті, що володіють меншими затримками. Тому варіанти було два: або складний чотириканальний режим, або перехід на DDR2. Сталося останнє і була представлена ​​платформа LGA775 (Socket T). Шина залишалася тією ж, але частоти пам'яті були обмежені 400 МГц, лише починалися з неї.



AMD вирішила проблему краще з погляду масштабованості. Покоління K8, що носило технічну назву Hammer, окрім збільшення числа інструкцій за такт (почасти через коротший конвеєр), мав дві нововведення з заділом на майбутнє. Ними стали вбудований контролер пам'яті (а точніше північний міст з більшою частиною його функціоналу) і швидка універсальна шина HyperTransport, яка служила для зв'язку процесора з чіпсетом або процесорів між собою в багатопроцесорній системі. Вбудований контролер пам'яті дозволив уникнути слабкої ланки – зв'язки «чіпсет – процесор». FSB як така перестала, була лише шина пам'яті і шина HT.


Це дозволило Athlon 64 легко обігнати існуючі рішення Intel на архітектурі Netburst і показати ущербність ідеології довгого конвеєра. Tejas мав багато проблем і не побачив світ. Ці процесори легко реалізовували потенціал карт GeForce 6, як і старші Pentium 4.


Але тут з'явилося нововведення, що зробило процесори надовго слабкою ланкою. Ім'я йому – multi-GPU. Вирішено було відродити ідеї 3dfx SLI і втілити в NVIDIA SLI. ATI відповіла симетрично та випустила CrossFire. Це були технології обробки сцен силами двох карт. Подвоєна теоретична потужність відеопідсистеми та розрахунки, пов'язані з розбиттям кадру на частини за рахунок процесора, призвели до перекосу системи. Старші Athlon 64 навантажували таку зв'язку лише у великих дозволах. Вихід GeForce 7 та ATI Radeon X1000 ще більше збільшив цей дисбаланс.


Принагідно було розроблено нову шину PCI Express. Ця двонаправлена ​​послідовна шина призначена для периферії і має дуже високу швидкість. Вона прийшла на заміну AGP та PCI, хоч і не витіснила її повністю. Через універсальність, швидкість і дешевизну реалізації вона швидко витіснила AGP, хоча і не принесла на той час ніякого приросту в швидкості. Різниці між ними не було. Але з погляду уніфікації це був дуже добрий крок. Зараз вже випускаються плати з підтримкою PCI-E 2.0, що має вдвічі більшу пропускну здатність (500 Мб/с в кожну сторону проти колишніх 250 Мб/с на одну лінію). Приросту нинішніх відеокарт це також не дало. Різниця між різними режимами PCI-E можлива лише у разі нестачі відеопам'яті, що означає дисбаланс для самої карти. Такою картою є GeForce 8800GTS 320 Mб – вона дуже чуйно реагує на зміну режиму PCI-E. Але брати незбалансовану карту, тільки щоб оцінити приріст від PCI-E 2.0, – рішення5 не найрозумніше. Інша річ, карти з підтримкою Turbocache та Hypermemory – технологій використання оперативної пам'яті як відеопам'ять. Тут приріст у плані пропускної спроможності пам'яті буде приблизно дворазовим, що позитивно позначиться на продуктивності.


Чи достатньо відеокарті пам'яті можна подивитися у будь-якому огляді пристроїв з різними обсягами VRAM. Там, де спостерігатиметься різке падіння кадрів за секунду, є брак VideoRAM. Але буває, що різниця стає помітна тільки при неграбних режимах - роздільній здатності 2560х1600 і AA/AF на максимум. Тоді різниця 4 і 8 кадрів на секунду хоч і буде дворазовою, але очевидно, що обидва режими неможливі в реальних умовах, тому й до уваги їх брати не варто.

Нова відповідь відеочіпам

Вихід нової архітектури Core 2 (технічна назва Conroe) покращив ситуацію з процесорозалежністю та рішення на GeForce 7 SLI завантажував без особливих проблем. Але подоспелі Quad SLI і GeForce 8 взяли реванш, відновивши перекіс. Так продовжується і досі. Ситуація лише погіршилася з виходом 3-way SLI і підготовкою до виходу Quad SLI на GeForce 8800 і Crossfire X 3-way і 4-way. Вихід Wolfdale трохи підвищив тактові частоти, але й розгону цього процесора мало, щоб нормально завантажити такі відеосистеми. 64-бітові ігри – велика рідкість, а приріст у цьому режимі спостерігається у поодиноких випадках. Ігри, які отримують приріст від чотирьох ядер, можна перерахувати на пальцях однієї руки інваліда. Як завжди, всіх витягує Microsoft, завантажуючи своєю новою ОС і пам'ять, і процесор за здорово живеш. Підспудно оголошується, що технології 3-way SLI та Crossfire X працюватимуть виключно під Vista. Враховуючи апетити, можливо, геймери будуть змушені брати чотириядерні процесори. Пов'язано це з більш рівномірним, ніж у Windoes XP, завантаженням ядер. Якщо вона повинна від'їдати неабияку частку процесорного часу, то нехай хоч від'їдає ядра, які грою все одно не використовуються. Проте маю сумнів, що нова операційна система задовольниться даними на відкуп ядрами.



Платформа Intel зживає себе. Чотири ядра вже сильно страждають від нестачі пропускної спроможності пам'яті та затримок, пов'язаних із перемиканнями шини. Шина розділяється, і на перехоплення ядром шини під свій контроль потрібен час. При двох ядрах це терпимо, але на чотирьох вплив тимчасових втрат стає помітнішим. Також системна шина давно не встигає за ПСП. Вплив даного фактора був ослаблений покращенням ефективності асинхронного режиму, що Intel непогано реалізувала. Робочі станції ще більшою мірою страждають від цього з вини невдалого чіпсету, контролер пам'яті якого забезпечує лише до 33% від теоретичного ПСП. Приклад тому – програш платформи Intel Skulltrail у більшості ігрових програм (3Dmark06 CPU test – не ігровий додаток) навіть при використанні однакових відеокарт. Тому Intel оголосила про нове покоління Nehalem, яке займеться використанням інфраструктури, дуже схожої з розробками AMD - вбудований контролер пам'яті і шина для периферії QPI (технічна назва CSI). Це покращить масштабованість платформи та дасть позитивні результати у двопроцесорних та багатоядерних конфігураціях.


AMD зараз має кілька пляшкових шийок. Перше пов'язане з механізмом кешування – через нього існує певна межа ПСП, що залежить від частоти процесора, така, що вище цього значення не вдається перестрибнути, навіть використовуючи більш високочастотні режими. Наприклад, при середньому процесорі різниця у роботі з пам'яттю між DDR2 667 та 800 МГц може бути близько 1-3%, для реального завдання – взагалі мізерною. Тому краще підбирати оптимальну частоту і знижувати таймінги - на них контролер дуже добре відгукується. Тому впроваджувати DDR3 сенсу немає ніякого – великі таймінги лише зашкодять, приросту взагалі може бути. Також проблема AMD зараз – повільна (попри SSE128) обробка SIMD інструкцій. Саме з цієї причини Core 2 дуже обганяє K8/K10. ALU, який завжди був сильним місцем Intel, став ще сильнішим, і в деяких випадках може бути в рази швидше свого побратима в Phenom'і. Тобто основне лихо процесорів AMD – слабка «математика».


Взагалі, слабкі ланки дуже залежить від конкретного завдання. Було розглянуто лише «епохальні». Так, у деяких завданнях швидкість може упертися в об'єм ОЗП або швидкість дискової підсистеми. Тоді додається більше пам'яті (об'єм визначається за допомогою лічильників продуктивності) і ставляться RAID-масиви. Швидкість ігор може бути підвищена відключенням вбудованої звукової карти та покупкою нормальної дискретної – Creative Audigy 2 або X-Fi, які менше вантажать процесор, обробляючи ефекти своїм чіпом. Це більшою мірою відноситься до звукових карт AC'97 і меншою до HD-Audio (Intel Azalia), оскільки в останній була виправлена ​​проблема високого завантаження процесора.


Пам'ятай, що система завжди повинна братися під конкретні завдання. Найчастіше, якщо відеокарту можна підібрати збалансовану (і то вибір за ціновими категоріями буде залежати від цін, що сильно різняться по різних місцях), то, скажімо, з дисковою підсистемою така можливість не завжди є. RAID 5 потрібен дуже небагатьом, але для сервера це незамінна річ. Те саме стосується двопроцесорної або багатоядерної конфігурації, марної в офісних додатках, але це «must have» для дизайнера, що працює в 3Ds Max.

Останнім часом дуже набрали популярності різні it блогери. І при всій до них повазі - підкоряючись наживі на хайпах вони створили дуже багато дивної інформації, які різні користувачі використовують, абсолютно не розуміючи про що мова.

Але справді простої інформації ніде немає - чи написано багато зайвого (для звичайних смертних), складною мовою. Або проскакують якісь крихти, які доводиться збирати за іноземними форумами, ресурсами і т.д.

Тому я вирішив зробити серію блогів про те, як взагалі працюють ігри, що впливає, що таке "розкриття відеокарти" і т.д. І описати це максимально простою та доступною мовою.

П.1. "Як це працює? Простіше, будь ласка!"

Для того, щоб надалі навіть прості речі не здавалися "китайською грамотою" - давайте розберемося, що ж таке "гра" і як пристрій її нам показує.

Гра за своєю суттю – це 3д додаток. І як і будь-який додаток він спочатку збирається з різних "шматочків", як "лего".

Провівши аналогію ми отримуємо:


1) Процесор - головний мозок, будує вершини, розраховує фізику (найчастіше). Якщо провести аналогію - це той, хто читає інструкцію зі збирання

2) відеокарта – обліплює текстурами, вішає ефекти, "робить красиво" – за аналогією це той, хто збирає за надиктованою інструкцією.

3) жорсткий диск – зберігає безпосередньо файли гри – за аналогією це коробка з конструктором.

4) Оперативна пам'ять і відеопам'ять - зберігає дані частого звернення, відеопам'ять - зберігає текстури. Це шматочки конструктора, які ви витягуєте і кидаєте поряд із собою, щоб не тягнутися в коробку.

Як ми бачимо, кожен компонент нашого пристрою, будь то ПК, консоль або навіть смартфон, виконує певні дії, щоб наша гра запустилася. Це, звичайно, найпримітивніше уявлення, але цього вже достатньо, щоб розуміти як це працює.

П.2. Чи розкриє процесор відеокарту?

Дуже багато розмов було на цю тему. Багато говорили про те, чи взагалі існує таке поняття. З моїх міркувань - так, існує, в якомусь сенсі.

Є таке поняття - "пляшкове шийка". Якщо просто - хтось робить щось повільно, через це стопориться весь процес. Якщо повернутися до наших аналогій - це або інструкцію читають повільно, або малюк-відеокарта не встигає складати "цеглинки", або, навіть, просто детальки поклали занадто далеко і доводиться за ними ходити.

Тепер розберемося як "дружать" процесор та відеокарта і хто кого розкриває?

Ситуація 1. Пляшкова шийка - відеокарта:


В результаті ми отримаємо на екрані 15 кадрів за секунду. При цьому відеокарта працюватиме на повну, процесор працюватиме наполовину. Це найідеальніший варіант, у такому разі кажуть, що "процесор розкриває відеокарту повністю". Процесору під час гри так само треба обробити різні програми самої системи, простежити, щоб працював скайп \ вайбер \ тимспік і багато іншого. Тому невеликий "запас" у процесора має залишатися.

Що це нам дає? У випадку ПК - ми можемо знизити налаштування графіки, щоб відеокарта змогла зробити більше "машинок"-кадрів. Так ми отримаємо більше фпс у грі.

Є й зворотний варіант:


Тут ми також отримуємо 15 кадрів. При цьому процесор у нас працює на повну, а відеокарта простоює (відпочиває). У такому разі говорять, що процесор не розкриває відеокарти.

Що це нам дає? За такого розкладу - ми не зможемо "стрибнути вище голови". Побачити більше фпс, ніж видає нам процесор, ми не зможемо. Але, оскільки у нас відеокарта відпочиває - ми можемо змусити її збирати не зі звичайної пластикової цегли, а з металевих з малюнками та стразами. Якщо за ігровими налаштуваннями - ми можемо поставити більше дозвіл, краще ефекти, більш прогресивне згладжування - аж до того моменту, поки карта не працюватиме на 100%, видаючи все ті ж 15 кадрів.

п2.1 То як зрозуміти, який процесор і відеокарту до нього взяти?

В інтернеті повно тестів "заліза". Коли тестують відеокарту - їй створюють ідеальні умови, щоб вона в будь-якому випадку викладалася на повну. Коли тестують процесори – роблять так само.

що ж нам потрібно, щоб гра у нас йшла у 60 кадрів без проблем? Давайте розглянемо з прикладу Witcher3, т.к. її протестували на все, що тільки можна.

Нам потрібно визначити, який процесор дозволить нам побачити 60 кадрів у грі. При цьому, по-доброму, нам треба брати із запасом, щоб процесору було чим обробляти фонові завдання.


Як бачимо, для цієї гри вистачить навіть Phenom2. І з ним ми побачимо 60 кадрів у цій грі, якщо "пляшковим шийкою" не стане відеокарта. Власне, подивимося, яка карта нам підійде:


Що ми бачимо? Щоб пограти на найбільших налаштуваннях в 60фпс нам необхідна карта 980 і вище.

А тепер найцікавіше - саме в цій грі, саме на таких налаштуваннях 980-ту карту розкриє старенький феном. Таким чином, ставлячи питання "чи розкриє мій процесор такусь відеокарту" просто подивіться, який фпс показує ваш процесор в іграх, що вас цікавлять. І потім подивіться, який фпс може дати відеокарта.

У другій частині я планую розповісти про жорсткий диск, ssd, оперативну пам'ять та відеопам'ять (їхній вплив на гру.)

P.s. Дякую. що прочитали. Це мій перший запис у блозі, тому буду радий конструктивній критиці. Якщо знайшли якісь неточності, помилки та ін. - пишіть у коментарях, виправлятимуся.

Доброго вам дня!

Гарний день, нічого не віщувало поганого. Але прийшла проблема - швидкість роботи якогось додатка стала неприйнятно маленькою, причому ще тиждень/місяць/день тому все було добре. Вирішити її треба швидко, витративши якнайменше часу. Проблемний сервер на базі Windows Server 2003 або пізнішої версії.

Сподіваюся нижченаведена писанина буде досить короткою і зрозумілою і до того ж корисною як для адміністраторів-початківців, так і для більш серйозних товаришів, бо завжди можна знайти щось нове для себе. Не варто відразу кидатися досліджувати поведінку програми. Перш за все варто подивитися, чи вистачає продуктивності сервера зараз? Чи немає якихось «пляшкових шийок», що обмежують його продуктивність?

У цьому нам допоможе perfmon - досить потужний інструмент, що йде разом із Windows. Почнемо з того, що дамо визначення «пляшковому шийку» - це ресурс, який досяг своєї межі використання. Зазвичай вони виникають через некоректне планування ресурсів, аппартні проблеми або неправильну поведінку програми.

Якщо відкрити perfmon, то ми побачимо десятки і сотні різних датчиків, і кількість їх не сприяє швидкому розслідуванню цієї проблеми. Так що для початку виділимо 5 основних можливих «пляшкових шийок», щоб скоротити список досліджуваних датчиків.

Це будуть процесор, оперативна пам'ять, система зберігання даних (HDD/SSD), мережа та процеси. Далі ми розглянемо кожен із цих пунктів, які датчики будуть нам потрібні та порогові значення для них.

Процесор

Перевантажений завданнями процесор явно не сприяє швидкій роботі програм. Для вивчення його ресурсів ми виділимо лише 4 датчики:

Processor\% Processor Time

Вимірює відношення часу роботи процесора до часу простою у відсотках. Найзрозуміліший датчик, завантаження процесора. MS рекомендує змінювати процесор більш швидкий, якщо значення вище 85%. Але це залежить від багатьох факторів, треба знати свої потреби та особливості, тому що це значення може змінюватись.

Processor\% User Time

Показує, скільки часу процесор проводить у user space. Якщо значення велике, це означає, що програми забирають багато процесорного часу, варто поглянути ними, т. до. назріває необхідність їх оптимізації.

Processor\% Interrupt Time

Вимірює час, який процесор витрачає очікування відповіді переривання. Даний датчик може показати наявність "залізних" проблем. MS рекомендує починати хвилюватися, якщо це значення перевищує 15%. Це означає, що пристрій починає відповідати дуже повільно на запити і його слід перевірити.

System\Processor Queue Length

Показує кількість потоків у черзі, які чекають свого часу на виконання. MS рекомендує задуматися над зміною процесора на має більшу кількість ядер, якщо це значення перевищує кількість ядер, помножених на два.

Оперативна пам'ять

Нестача оперативної пам'яті може позначитися на загальній продуктивності системи, змушуючи систему активно використовувати повільний HDD для свопування. Але навіть якщо на сервері встановлено багато ОЗУ, пам'ять може «витікати». Витік пам'яті - це неконтрольований процес зменшення кількості вільної пам'яті, пов'язаний із помилками у програмах. Також варто згадати, що для Windows об'єм віртуальної пам'яті є сумою ОЗП та файлу підкачки.

Memory\% Committed Bytes in Use

Показує використання віртуальної пам'яті. Якщо значення перевалило за 80%, варто подумати про додаванні ОЗУ.

Memory\Available Mbytes

Показує використання ОЗП, а саме кількість доступних мегабайт. Якщо значення становить менше 5%, то знову ж таки слід подумати про додавання ОЗП.

Memory\Free System Page Table Entries

Кількість вільних елементів таблиці сторінок. А воно обмежене, до того ж у наші дні популярність набувають сторінки в 2 і більше МБ, замість класичних 4кБ, що не сприяє їх великій кількості. Значення менше 5000 може свідчити про витік пам'яті.

Memory\Pool Non-Paged Bytes

Розмір цього пулу. Це шматочок пам'яті ядра, який містить важливі дані і не може бути вивантажений у swap. Якщо значення перевищило 175 МБ, то швидше за все це витік пам'яті. Зазвичай це супроводжується появою подій 2019 року у системному журналі.

Memory\Pool Paged Bytes

Аналогічно попередньому, але ця область можна вивантажувати на диск (swap), якщо вони не використовуються. Для цього лічильника значення вище 250 МБ вважаються критичними, зазвичай супроводжується появою подій 2020 року в системному журналі. Також говорить про витік пам'яті.

Memory\Pages per Second

Кількість звернень (запис/читання) до page file за секунду через відсутність необхідних даних у ОЗП. І знову значення понад 1000 натякає на витік пам'яті.

Жорсткий диск

Досить важливий елемент, який може зробити істотний внесок у продуктивність системи.

LogicalDisk\% Free Space

Відсоток вільного місця. Цікавлять лише розділи, що містять системні файли - ОС, файл/файли підкачування і т.д. MS рекомендує подбати про збільшення дискового простору, якщо вільного місця залишилося менше 15%, тому що при критичних навантаженнях воно може різко закінчитися (temp файлами, оновленнями Windows або тим самим файлом підкачування). Але, як кажуть, “it depends” і треба дивитися реально доступний обсяг простору, т.к. той же файл підкачки може бути жорстко фіксований, на temp накладені квоти, що забороняють їм розростатися, а оновлення лунають порційно і рідко, або їх немає взагалі.

PhysicalDisk\% Idle Time

Показує, скільки часу диск не діє. Рекомендується замінити диск більш продуктивним, якщо цей лічильник знаходиться нижче 20% кордону.

PhysicalDisk\Avg. Disk Sec/Read

Середній час, необхідний жорсткому диску для читання даних із себе. Вище 25мс – це вже погано, для SQL сервера та Exchange рекомендується 10мс і менше. Рекомендація ідентична попередньої.

PhysicalDisk\Avg. Disk Sec/Write

Ідентично PhysicalDisk\Avg. Disk Sec/Read, лише для запису. Критичний поріг теж дорівнює 25мс.

PhysicalDisk\Avg. Disk Queue Length

Показує середнє число I/O операцій, які очікують, коли жорсткий диск стане доступним для них. Рекомендується починати турбується, якщо це число вдвічі перевищує кількість шпинделів у системі (у разі відсутності raid-масивів кількість шпинделів дорівнює кількості жорстких дисків). Порада колишня - більш продуктивна HDD.

Memory\Cache Bytes

Об'єм пам'яті, який використовується для кеша, частина якого є файловим. Об'єм більше 300МБ може говорити про проблему з продуктивністю HDD або наявність програми, що активно використовує кеш.

Мережа

У світі без неї нікуди - величезна кількість даних транслюються саме у мережі.

Network Interface\Bytes Total/Sec

Кількість даних, що передаються (send/receive) через мережевий адаптер. Значення, що перевищує 70% від пропускної спроможності інтерфейсу, говорить про можливу проблему. Потрібно або замінити карту більш продуктивну, або додати ще одну для розвантаження першої.

Network Interface\Output Queue Length

Вказує кількість пакетів, що стоять у черзі на відправлення. Якщо значення перевалило за 2, варто подумати про заміну карти на більш продуктивну.

Процеси

Продуктивність сервера може катастрофічно впасти, якщо є неоптимізована програма або програма починає поводитися «неправильно».

Process\Handle Count

Кількість дескрипторів, що обробляються процесом. Це може бути як файли, і ключі реєстру. Кількість цих, що перевищує 10000 може бути показником неправильної роботи програми.

Process\Thread Count

Кількість потоків усередині процесу. Варто уважніше вивчити поведінку програми, якщо різниця між мінімальним і максимальним числом перевищить 500.

Process\Private Bytes

Показує кількість пам'яті, що виділяється процесом, яке може бути надано іншим процесам. Якщо коливання цього показника перевищить 250 між мінімумом і максимумом, то це говорить про можливий витік пам'яті.

Більшість вищенаведених лічильників немає чіткого показника те, що у системі з'явилося «пляшкове шийка». Всі наведені значення будувалися за середньостатистичними результатами і можуть змінюватись для різних систем у широкому діапазоні. Щоб скористатися даними лічильниками грамотно, ми повинні знати хоча б показники системи за нормальної роботи. Це називається baseline performance – perfmon лог, знятий з працюючою свіжовстановленою (останнє необов'язково, ніколи не пізно зняти даний лог або вести облік зміни baseline продуктивності в довгостроковій перспективі) системи, яка не має проблем. Це досить важливий момент, що часто багатьма опускається, хоча в майбутньому він може серйозно скоротити можливу просту систему і в явній формі прискорити аналіз отриманих даних з наведених вище лічильників.

Взято з https://ua.intel.com/business/community/?automodule=blog&blogid=57161&sh...

0 0

Теорію обмежень систем було сформульовано у 80-ті роки ХХ ст. та стосувалася управління виробничими підприємствами. Коротко її суть зводиться до того, що у кожній виробничій системі діють обмеження, які стримують ефективність. Якщо усунути ключове обмеження, система запрацює значно ефективніше, ніж намагатися впливати на всю систему відразу. Тому процес удосконалення виробництва слід розпочинати з усунення вузьких місць.

Зараз термін bottleneck може використовуватися для будь-якої галузі — у сфері послуг, розробці програмного забезпечення, логістиці, повсякденному житті.

Що таке bottleneck

Визначення bottleneck звучить як місце у виробничій системі, в якому виникає перевантаження, тому що потік матеріалів надходить занадто швидко, але не може бути так само швидко перероблений. Часто це станція з меншою потужністю ніж попередній вузол. Термін походить з аналогії з вузьким шийкою пляшки, яка уповільнює шлях рідини назовні.


Bottleneck - вузьке місце у виробничому процесі

На виробництві ефект пляшкового шийки викликає простої та виробничі витрати, знижує загальну ефективність та збільшує терміни відвантаження продукції замовникам.

Існує два типи вузьких місць:

  1. Короткострокові вузькі місця- Викликані тимчасовими проблемами. Хороший приклад — лікарняна чи відпустка ключових співробітників. Ніхто в команді не може повноцінно замінити їх і робота зупиняється. На виробництві це може бути поломка одного із групи верстатів, коли його навантаження розподіляється між робочим обладнанням.
  2. Довгострокові вузькі місця- Діють постійно. Наприклад, постійна затримка місячних звітів у компанії через те, що одна людина має обробити величезну кількість інформації, яка надійде до неї лавиною наприкінці місяця.

Як визначити bottleneck у виробничому процесі

Існує кілька способів пошуку bottleneck на виробництві різного рівня складності, із застосуванням спеціальних інструментів та без. Почнемо з простих способів, заснованих на спостереженні.

Черги та затори

Процес на виробничій лінії, який збирає перед собою найбільшу чергу з одиниць незавершеного виробництва, зазвичай є пляшковим шийкою. Такий спосіб пошуку bottleneck підходить для штучного конвеєрного виробництва, наприклад, на лінії розливу. Добре видно, де лінії скупчуються пляшки, і який механізм має недостатню потужність, часто ламається або обслуговується недосвідченим оператором. Якщо на лінії кілька місць скупчення, то ситуація складніша, і потрібно використовувати додаткові методи, щоб знайти найкритичніше вузьке місце.

Пропускна здатність

Пропускна спроможність усієї виробничої лінії прямо залежить від виходу обладнання bottleneck. Ця характеристика допоможе знайти головну пляшечку шийки процесу виробництва. Збільшення випуску одиниці устаткування, яка є вузьким місцем, істотно вплине загальний випуск лінії. Перевіривши по черзі все обладнання, можна виявити bottleneck - тобто той крок, збільшення потужності якого найбільше вплине на вихід всього процесу.

Повна потужність

Більшість виробничих ліній відстежують відсоток завантаження кожної одиниці устаткування. Верстати та станції мають фіксовану потужність та в процесі виробництва використовуються на певний відсоток від максимальної потужності. Станція, яка задіює максимум потужності – bottleneck. Таке обладнання стримує процент використання потужності іншого обладнання. Якщо ви збільшите потужність bottleneck, то потужність усієї лінії зросте.

Очікування

Процес виробництва також враховує час простоїв та очікування. Коли на лінії є пляшкова шийка, то обладнання, що йде одразу ним, довго простоює. Bottleneck затримує виробництво і наступний верстат не отримує достатньо матеріалу, щоб працювати безперервно. Коли ви виявите верстат з довгим часом очікування, то шукайте на попередньому кроці пляшку.

Крім спостереження за виробництвом для виявлення вузьких місць використовуються такі інструменти:

Value Stream Mapping – карта створення потоків цінності

Як тільки ви з'ясуйте причину чи причини вузьких місць, потрібно визначити діїдля розширення пляшкового шийки та нарощування виробництва. Можливо, вам знадобиться перемістити співробітників у проблемну зону або найняти додатковий персонал та закупити обладнання.

Пляшкова шийка може виникнути там, де оператори переналаштовують обладнання для виробництва іншого продукту. У такому разі треба подумати, як скоротити простої. Наприклад, змінити графік виробництва, щоб зменшити кількість переналагодження або зменшити їх вплив.

Як зменшити вплив вузьких місць

Bottleneck менеджмент пропонує виробничим компаніям використовувати три підходи, щоб зменшити вплив вузьких місць.

Перший підхід

Збільшення потужності існуючих вузьких місць.

Існує кілька способів збільшити потужність вузьких місць:

  1. Додайте ресурси до обмежуючого процесу. Необов'язково наймати нових працівників. Крос-функціональне навчання персоналу може зменшити вплив вузьких місць із незначними витратами. У такому разі робітники обслуговуватимуть одразу кілька станцій та полегшуватимуть проходження вузьких місць.
  2. Забезпечте безперебійне подання деталей на вузьке місце. Завжди слідкуйте за незавершеним виробництвом перед вузьким місцем, керуйте подачею ресурсів на станцію bottleneck, враховуйте овертайми, протягом яких обладнання також завжди повинно мати деталі для обробки.
  3. Переконайтеся, що вузьке місце працює лише з якісними деталями. Не витрачайте потужність та час роботи вузького місця на опрацювання шлюбу. Розташовуйте точки контролю якості перед станціями bottleneck. Це підвищить пропускну спроможність процесу.
  4. Перевірте графіки виробництва. Якщо у процесі випускається кілька різних продуктів, які вимагають різного часу роботи bottleneck, скоригуйте графік виробництва так, щоб загальний попит на bottleneck зменшився
  5. Збільште час роботи обладнання, що обмежує. Нехай bottleneck працює довше, ніж інше обладнання. Призначте оператора, який обслуговуватиме процес під час обідніх перерв, планових простоїв і, якщо потрібно, понаднормово. Хоча цей метод не зменшить час циклу, він буде підтримувати роботу bottleneck доки інше обладнання простоюватиме.
  6. Скоротіть простої. Уникайте планових та позапланових простоїв. Якщо обладнання bottleneck вийде з ладу під час робочого процесу, негайно відправте ремонтну бригаду, щоб відремонтувати та запустити його. Також постарайтеся скоротити час переналагодження обладнання з одного продукту на інший.
  7. Удосконаліть процес саме у вузькому місці. Використовуйте VSM, щоб усунути дії, що не додають цінності, і скоротити час на додавання цінності, позбавившись втрат. У результаті ви отримаєте коротший час циклу.
  8. Перерозподіліть навантаження на bottleneck. Якщо можливо, розділіть операцію на частини та призначте їх на інші ресурси. У результаті ви отримаєте коротший цикл і збільшену потужність.


Другий підхід

Продаж надлишків виробництва, які випускає обладнання, що не відноситься до пляшкового шийки.

Наприклад, у вас на лінії 20 ін'єкційних пресів, а ви використовуєте лише 12 із них, тому що обладнання bottleneck не може переробити випуск усіх 20 пресів. У цьому випадку ви можете знайти інші компанії, які зацікавлені у субпідряді на операції лиття під тиском. Ви будете у прибутку, тому що отримаєте від субпідрядників більше, ніж ваші змінні витрати.


Третій підхід

Скорочення потужності, що не використовується.

Третій варіант оптимізації виробництва — розпродати обладнання з екстра потужністю та скоротити чи перемістити персонал, який його обслуговує. В цьому випадку потужність всього обладнання буде зрівняна.


Приклади bottleneck поза виробництвом

Транспорт

Класичний приклад — пробки на дорогах, які можуть постійно утворюватися у певних місцях, або тимчасово з'являтися під час ДТП або проведення дорожніх робіт. Інші приклади – шлюз на річці, навантажувач, залізнична платформа.

Комп'ютерні мережі

Повільний Wi-Fi-роутер, підключений до ефективної мережі з високою пропускною здатністю, є вузьким місцем.

Комунікація

Розробник, який шість годин на день проводить на нарадах, і лише дві години пише код.

Програмне забезпечення

У додатку теж є вузькі місця - це елементи коду, на яких програма "гальмує", змушуючи користувача чекати.

"Залізо" комп'ютера

Вузькі місця в комп'ютері - це обмеження апаратних засобів, при яких потужність системи обмежується одним компонентом. Часто процесор розглядається як обмежуючий компонент відеокарти.

Бюрократія

У повсякденному житті ми часто зустрічаємося з вузькими місцями. Наприклад, коли раптово закінчуються бланки для паспортів або прав водія і вся система зупиняється. Або коли потрібно пройти медогляд, а кабінет флюорографії працює лише три години на день.

Вердикт

Вузькі місця у виробництві, менеджменті та житті – це точки потенційних покращень.

Розширення bottleneck дасть відчутний приріст продуктивності та ефективності.

А не звертати уваги на обмежуючі елементи системи — значить недоотримувати прибуток і працювати гірше за свої можливості.

В останній версії Windows з'явилася функція визначення рейтингу потужності різних компонентів ПК. Це дає загальне уявлення про продуктивність та вузькі місця системи. Але тут ви не знайдете жодних подробиць про швидкісні параметри комплектуючих. Крім того, ця діагностика не дозволяє провести стрес-тест обладнання, що буває корисним для розуміння пікових навантажень під час запуску сучасних ігор. Сторонні бенчмарки сімейства 3DMark також дають лише оцінну характеристику в умовних балах. При цьому не секрет, що багато виробників комп'ютерного заліза оптимізують роботу відеокарт та інших компонентів таким чином, щоб отримати максимальну кількість балів саме при проходженні 3DMark. Ця програма навіть дозволяє порівняти продуктивність вашого обладнання з аналогічним із її бази, але конкретних значень ви не отримаєте.

Тому тестування ПК слід проводити окремо, враховуючи як оцінку продуктивності бенчмарком, а й реальні технічні характеристики, зафіксовані внаслідок перевірки устаткування. Ми підібрали вам комплект утиліт (як платних, так і безкоштовних), що дозволяють отримати конкретні результати і виявити слабкі ланки.

Швидкість обробки зображення та 3D

Тестування відеокарт - одне з найважливіших етапів щодо оцінки потужності ПК. Виробники сучасних відеоадаптерів оснащують їх спеціальним ПЗ та драйверами, що дозволяють використовувати GPU не тільки для обробки зображення, але й інших обчислень, наприклад, при кодуванні відео. Тому єдиний надійний спосіб дізнатися, наскільки ефективно обробляється комп'ютерна графіка - вдатися до спеціального додатку, який вимірює продуктивність пристрою.

Перевірка стабільності відеокарти

Програма: FurMark 1.9.1 Сайт: www.ozone3d.net Програма FurMark - це один із найшвидших і найпростіших засобів для перевірки роботи відеоадаптера. Утиліта тестує продуктивність відеокарти, беручи за основу технологію OpenGL. Алгоритм пропонованої візуалізації задіює багатопрохідний рендеринг, кожен шар якого заснований на GLSL (шейдерна мова OpenGL).

Щоб навантажити процесор відеокарти, даний бенчмарк візуалізує абстрактну тривимірну картинку з тором, покритим хутром. Необхідність обробити велику кількість волосся призводить до максимально можливої ​​завантаженості пристрою. FurMark перевіряє стабільність роботи відеокарти, а також показує зміни температурних показників пристрою зі збільшенням навантаження.

У налаштуваннях FurMark можна вказати дозвіл, при якому буде проводитися тестування «заліза», а після завершення програми надасть короткий звіт про конфігурацію ПК з підсумковою оцінкою в умовних балах. Це значення зручно використовувати за загального порівняння продуктивності кількох відеокарт. Також можна перевірити «чергові» дозволи 1080p та 720p.

Віртуальна стереопрогулянка

Програма: Unigine Heaven DX11 Benchmark Сайт: www.unigine.com Один із найвірніших способів перевірити, на що здатний новий комп'ютер, - запускати на ньому ігри. Сучасні ігри повністю задіяють апаратні ресурси - відеокарту, пам'ять та процесор. Однак далеко не всі мають можливість і бажання витрачати час на подібні розваги. Натомість можна використовувати програму Unigine Heaven DX11 Benchmark. Цей тест заснований на ігровому движку Unigine (на ньому побудовані такі ігри, як Oil Rush, Dilogus: Winds of War, Syndicates of Arkon та інші), що підтримує графічні API (DirectX 9, 10, 11 і OpenGL). Після його запуску програма створить демонстраційну візуалізацію, промальовуючи віртуальне оточення як реального часу. Користувач побачить короткометражний ролик, який включатиме віртуальну прогулянку фентезійним світом. Ці сцени створюються силами відеокарти. Крім тривимірних об'єктів двигун імітує складне освітлення, моделюючи глобальну систему з багаторазовими відбиттями променів світла від елементів сцени.

Тестування комп'ютера можна проводити в режимі стерео, причому в налаштуваннях бенчмарку дозволяється вибрати стандарт об'ємного відеозображення: анагліфне 3D, роздільне виведення кадрів для правого та лівого очей і т.д.

Незважаючи на те, що в назві програми згадана одинадцята версія DirectX, це не означає, що Unigine Heaven призначений тільки для сучасних відеокарт. У налаштуваннях цього тесту можна вибрати одну з попередніх версій DirectX, а також встановити прийнятний рівень деталізації картинки і вказати якість промальовування шейдерів.

Виявлення слабкої ланки

У ситуації, коли користувача охоплює бажання збільшити продуктивність свого комп'ютера, може виникнути питання: який найслабший компонент? Що зробить комп'ютер швидше - заміна відеокарти, процесора або встановлення величезного обсягу оперативної пам'яті? Щоб дати відповідь на це питання, необхідно протестувати окремі компоненти та визначити у поточній конфігурації «слабку ланку». Знайти його допоможе унікальна у своєму роді мультитестуюча утиліта.

Імітатор навантажень

Програма: PassMark PerformanceTest Сайт: www.passmark.com PassMark PerformanceTest аналізує практично будь-який пристрій, що є у конфігурації ПК, - від материнської плати та пам'яті до оптичних приводів.

Особливістю PassMark PerformanceTest є те, що програма використовує багато різних завдань, скрупульозно вимірюючи продуктивність комп'ютера в різних ситуаціях. У певний момент може навіть здатися, що хтось узяв керування системою у свої руки – довільним чином відкриваються вікна, виконується прокручування їхнього вмісту, виводяться на екран зображення. Все це результат роботи бенчмарку, який імітує виконання найбільш типових завдань, зазвичай затребуваних у Windows. При цьому перевіряється швидкість компресії даних, фіксується час, необхідний для шифрування інформації, застосовуються фільтри до фотографій, встановлюється швидкість візуалізації векторної графіки, програються короткі тривимірні демонстраційні ролики і т. д.

Наприкінці тестування PassMark PerformanceTest видає сумарну оцінку в балах і пропонує порівняти цей результат із даними, отриманими на ПК із різною конфігурацією. По кожному з перевірених параметрів програма створює діаграму, на якій дуже добре видно слабкі комплектуючі комп'ютера.

Перевірка дискової системи

Пропускна здатність дискової системи може бути найвужчим місцем у продуктивності ПК. Тому знати реальні характеристики цих комплектуючих надзвичайно важливо. Тестування вінчестера дозволить не тільки визначити його швидкість читання та запису, але й покаже, наскільки надійно працює пристрій. Для перевірки накопичувача ми рекомендуємо спробувати дві маленькі утиліти.

Іспити для HDD

Програми: CrystalDiskInfo та CrystalDiskMark Сайт: http://crystalmark.info/software/index-e.html Ці програми створені одним розробником і відмінно доповнюють одна одну. Обидві вони безкоштовні і можуть працювати без встановлення на комп'ютер безпосередньо з флешки.

У більшості жорстких дисків реалізовано технологію самодіагностики SMART, що дозволяє спрогнозувати можливі несправності роботи накопичувача. За допомогою програми CrystalDiskInfo можна оцінити реальний стан вашого HDD у плані надійності: вона зчитує дані SMART, визначає кількість проблемних секторів, кількість помилок позиціонування головки зчитування, час, необхідний на розкручування диска, а також поточну температуру пристрою. Якщо останній показник занадто високий, то ресурс роботи носія повністю буде дуже коротким. Програма також показує версію прошивки та надає дані про тривалість використання жорсткого диска.

CrystalDiskMark - це невелика програма, що вимірює швидкості запису та читання. Цей інструмент для перевірки дисків відрізняється від аналогічних утиліт тим, що дає можливість використовувати різні умови запису та читання даних - наприклад, вимірювати показання для блоків різного розміру. Також утиліта дозволяє задати кількість тестів, що проводяться, і обсяг даних, що використовуються для них.

Спідометр для веб-серфінгу

Реальна швидкість з'єднання зазвичай відрізняється від тієї, що вказана в його налаштуваннях або заявлена ​​провайдером, причому, як правило, у меншу сторону. На швидкість передачі даних може впливати маса факторів - рівень електромагнітних перешкод у приміщенні, кількість користувачів, що одночасно працюють у мережі, якість кабелю тощо.

Оцінка швидкості мережі

Програма: SpeedTest Сайт: www.raccoonworks.com Якщо ви хочете дізнатися про реальну швидкість передачі даних у вашій локальній мережі, вам допоможе програма SpeedTest. Вона дозволяє визначити, чи дотримується провайдер заявлених параметрів. Утиліта вимірює швидкість передачі даних між двома робочими машинами користувачів, а також між віддаленим сервером та особистим комп'ютером.

Програма складається з двох частин – серверної та клієнтської. Щоб виміряти швидкість передачі інформації від одного комп'ютера до іншого, першому користувачеві необхідно запустити серверну частину та вказати довільний файл (бажано великого розміру), який використовуватиметься для тесту. Другий учасник випробувань повинен запустити клієнтську складову та вказати параметри сервера – адресу та порт. Обидві програми встановлюють з'єднання та починають обмінюватися даними. У процесі передачі файлу SpeedTest будує графічну залежність та збирає статистичні дані про час, який знадобився для копіювання даних через мережу. Якщо тестувати кілька віддалених ПК, програма буде щоразу додавати нові криві на побудований графік.

Крім того, SpeedTest перевірить швидкість роботи Інтернету: в режимі Web Page програма тестує з'єднання з будь-яким сайтом. Цей параметр можна оцінити, зайшовши на спеціалізований ресурс http://internet.yandex.ru.

Збої в роботі оперативної пам'яті можуть виявлятися не відразу, а за певних навантажень. Щоб бути впевненим, що підібрані модулі не підведуть вас у будь-якій ситуації, краще їх як слід протестувати та вибрати найшвидші.

Мем-олімпіада

Програма: MaxxMEM2 - PreView Сайт: www.maxxpi.net Ця програма призначена для перевірки швидкості роботи пам'яті. За дуже короткий період вона виконує кілька тестів: заміряє час копіювання даних у ОЗП, визначає швидкість читання та запису даних, показує параметр латентності пам'яті. У налаштуваннях утиліти можна встановити пріоритет тесту, а результат порівняти з актуальними значеннями, отриманими іншими користувачами. З меню програми можна швидко перейти до онлайнової статистики на офіційному сайті MaxxMEM2 і дізнатися, яка пам'ять є найпродуктивнішою.

Для звуку швидкість не головне

При тестуванні більшості пристроїв, як правило, важлива швидкість обробки даних. А от щодо звукової карти це не є головним показником. Для користувача набагато важливіше перевірити характеристики аналогового та цифрового аудіотракту – дізнатися, наскільки спотворюється звук при відтворенні та запису, виміряти рівень шуму тощо.

Порівняння з еталоном

Програма: RightMark Audio Analyzer 6.2.3 Сайт: http://audio.rightmark.org Автори цієї утиліти пропонують кілька способів перевірки аудіопоказників. Перший варіант – самодіагностика звукової карти. Пристрій відтворює через аудіотракт тестовий сигнал відразу його записує. Хвильова форма отриманого сигналу в ідеалі має відповідати оригіналу. Відхилення свідчать про спотворення звуку встановленої у вашому ПК аудіокартою.

Другий і третій способи тестування більш точні – за допомогою еталонного генератора звукового сигналу або за допомогою додаткової звукової карти. В обох випадках якість джерела сигналу приймається за зразок, хоча певну похибку додаткові пристрої також вносять. При використанні другої аудіокарти фактор спотворення сигналу на виході повинен бути мінімальним - пристрій повинен мати кращі характеристики, ніж у звукової карти, що тестується. Наприкінці перевірки можна також визначити такі параметри, як частотні характеристики аудіоплати, її рівень шуму, гармонійні спотворення, що видаються, і т.д.

Крім основних функцій, доступних у безкоштовній редакції, у більш потужній версії програми RightMark Audio Analyzer 6.2.3 PRO також є підтримка професійного ASIO-інтерфейсу, вчетверо більш детальна роздільна здатність спектру та можливість використання прямої передачі даних Kernel Streaming.

Важливо, щоб ніхто не заважав

Під час проведення будь-якого тесту продуктивності слід пам'ятати, що у його кінцеві результати впливає безліч чинників, особливо робота фонових служб і додатків. Тому для максимально точної оцінки ПК рекомендується заздалегідь відключати антивірусний сканер і закривати всі запущені програми, аж до поштового клієнта. І, звичайно, щоб уникнути похибок у вимірах, слід припинити будь-яку роботу, доки програма не завершить тестування обладнання.

Принтери