Неотдавна обърнахме внимание на остарелите вече митове за процесорите и

...
Неотдавна обърнахме внимание на остарелите вече митове за процесорите и
Коментари Харесай

Дванадесет мита за видеокартите, които е време да забравим

Неотдавна обърнахме внимание на остарелите към този момент легенди за процесорите и оперативната памет. Нека през днешния ден да се спрем на видеокартите, които от дълго време са наложителен съставен елемент във всеки компютър.
1Колкото повече буферна памет има, толкоз е по-бързa видеокартата
Изглежда разумно – в по-мощните видеокарти се слага повече памет.. Така да вземем за пример, GTX 1070 с 8 GB буферна памет е по-бърза от GTX 1060 с 6 GB, а GTX 1080 Ti с 11 GB е по-бърза от GTX 1080 с 8 GB. Но би трябвало да се има поради, че графичната памет несъмнено е значима, само че софтуерът нормално не може да употребява всичката памет. Например GTX 1060 с 3 GB буферна памет е по-бавна от версията с 6 GB единствено с 5-10%, като разликата идва най-вече от другия брой CUDA ядра.

Но има производители на видеокарти, които употребяват този мит в своя изгода. Например, на пазара се предлага GT 740 с 4 GB GDDR5 памет. Лесно можем да се заблудим и да си помислим: топ-видеокартата от това потомство има единствено 3 GB буферна памет и излиза, че GT 740 е по-добра? Разбира се, че не. Ако изберем графичните настройки на играта по подобен метод, че да се употребява всичката памет, тази видеокарта дава слайдшоу. А в случай че понижим новото на графиката, с цел да може въпреки всичко да се играе, ще забележим, че се употребяват едвам 1, най-много 2 GB графична памет.

Подобен образец има и при AMD. Това е моделът RX 550 със същите 4 GB GDDR5 памет. Тази памет в действителност се употребява при някои характерни задания, само че не прави видеокартата по-бърза.

Наистина, не могат да се вършат заключения за бързината на видеокартата единствено по количеството конфигурирана памет.
2Ако на видеокартата не ѝ доближи графичната памет, в игрите наложително стартират да излизат фреймове, ще има сривове и други сходни.
Това също наподобява разумно: в случай че на видеокартата не ѝ е достигнала паметта, тя няма от кое място да вземе друга и играта или програмата няма да работи правилно. Всъщност няма сходно нещо. Видеокартата има достъп до оперативната памет на компютъра, която нормално е доста повече от графичната памет. Разбира се, RAM е неведнъж по-бавна и времето за достъп до нея е огромно. Това би могло да сътвори проблеми с плавността на изображението, само че единствено в случай че дефицитът на графична памет е прекомерно огромен. Например видеокартата има 2-3 GB графична памет, а играта изисква 4-5 GB. Но в случай че не доближават няколко стотици мегабайта, няма проблеми. Графичният процесор може динамично да употребява наличните запаси и съхранява в оперативната памет на компютъра единствено информацията, която се употребява рядко и не изисква незабавен достъп.
3Видеокартите изгарят от овърклока
Знаем че производителите продават своите видеокарти със фабричен овърклок. Разбира се, графичната карта може да се повреди от хардуерен овърклок – в случай че се трансформират да вземем за пример, физическите параметри, като да вземем за пример напрежението. Промяната на софтуерните параметри, като да вземем за пример честотите, не оказва въздействие на хардуера на видеокартата. Най-много да се срине драйвера или да изскочи BSOD от прекомерно високата периодичност.
4SLI/Crossfire усилва продуктивността и буферната памет толкоз пъти, колкото видеокарти са включени в масива
Всъщност, това не е тъкмо мит, а научен резултат. Уви, макар че SLI е към този момент на 20 години, а Nvidia го употребява от над 10 години, в съвсем всички игри приръстът на продуктивност е нулев и даже от време на време негативен. Само в единични геймърски планове има растеж на продуктивността с 10-20% спрямо една видеокарта, само че това несъмнено е смешно, като се има поради двукратното нарастване на цената и на потреблението на електрическа сила.

При изчислителните логаритми и задания всичко е по-друго. Професионалният програмен продукт доста добре употребява няколко графични карти по едно и също време. Но това към този момент е надалеч от домашното потребление на устройствата, а в този цикъл публикации приказваме единствено за домашни условия .

С буферната памет всичко е ясно. При потреблението на DirectX 11 и по-стар, в паметта на всяка видеокарта се записва идентична информация – т.е., при свързването на няколко карти в общ масив, буферната памет, която може да се употребява е в действителност паметта единствено на едната графична карта. Но при API DirectX 12 към този момент има опция за дейно потребление на Split Frame Rendering, където всяка видеокарта работи върху своя част от фрагмента. В този случай, може да се каже, че буферната памет от SLI масива се сумира, макар че има някои изключения.
5Професионалните карти са по-добри от геймърските
Митът произлиза от това, че професионалните видеокарти, като да вземем за пример Nvidia Quadro или AMD FirePro нормално костват доста повече от геймърските графични карти. А щом са по-скъпи, значи са по-добри. Само че въпросът е, в коя област са по-добри? От хардуерна позиция, множеството професионални ускорители употребяват същия графичен процесор и имат също толкоз памет. Разликата е в профилираните драйвери, които са особено предопределени за професионално потребление. А този програмен продукт е безценен.

Тези драйвери никой не приспособява за геймърски цели и професионалните видеокарти нормално се показват зле при видеоигрите спрямо елементарните графични карти със същия графичен процесор. От друга страна, в случай че съпоставяме резултатите на професионалните карти в CAD системите или 3ds Max, то там те неведнъж превъзхождат елементарните решения. Така че за този мит може да се каже, че няма смисъл от директното сравняване на тези графични решения. Те се употребяват в разнообразни области и са от разнообразни ценови сегменти.
6Ако процесорът не разкрива всички благоприятни условия на видеокартата, то това е прекомерно неприятно
Това е може би най-популярният мит – в случай че видеокартата не е заета на 100%, то това е неприятно. От една страна наподобява разумно – натоварването под 100% значи, че тя постоянно престоява и не се употребява пълноценно. От друга страна, доста хора не помнят, че на процедура всеки централен процесор може да натовари GPU до 100%. Това е елементарно: в игрите който и да е процесор приготвя избран брой фрагменти за видеокартата и колкото е по-мощен процесорът, толкоз повече фрагменти ще приготви.

Тоест, с цел да бъде натоварена видеокартата на всичките 100%, тя би трябвало да стартира да обработва по-малко фрагменти, в сравнение с ѝ подава процесорът. Това не е мъчно: включваме допустимо най-високите настройки на графиката, задействаме най-тежкото изглаждане и незабавно ще забележим по какъв начин GTX 1080 Ti при 5К резолюция и оптимални настройки на графиката стартира да се затруднява и да не генерира не повече от 15-20 фрагмента в секунда. А поставеният двуядрен Intel Pentium остава студен и не може да се натовари и до 50%.

Лесно се получава и противоположната обстановка. Същата GTX 1080 Ti да рендира игра с HD резолюция с минимални настройки на графиката. В този случай даже и Core i9-9900K няма да може да ѝ обезпечи токова фрагменти, че тя да се натовари до 100%.

Тук могат да се създадат два значими извода. Първо, в случай че видеокартата не е доста натоварена, а геймърският fps ви устройва, можете да увеличите графичните настройки и да я натоварите до 100% – ще получите по-добро изображение при същия брой фрагменти в секунда. Второ, би трябвало да се избират уравновесени конфигурации с цел да не се получава 100% натоварване на процесора, а играта да върви с 20 fps.
7Колкото е по-тясна шината на паметта, толкоз е по-ниска продуктивността на видеокартата
Във форумите можем да забележим постове от вида: „преди 8 години GTX 480 имаше 384-битова шина, а в този момент GTX 1080 има единствено 256-битова – Nvidia икономисва“ Също наподобява разумно – колкото е по-широка шината, толкоз повече данни могат да се обменят.

Отдавна продуктивността на зависи само от шината. През това време честотата на буферната памет няколкократно набъбна, а производителите непрестанно усъвършенстват логаритмите за продан на данни посредством шината. По този метод ширината на шината умерено може да бъде понижена. Така да вземем за пример MX150 (позната и като GT 1030) има едвам 64-битова шина (като един RAM канал), само че дава продуктивност от равнището на GTX 950M със 128-битова шина. А преди 5-6 години това бе видеокарта от междинен клас.
8Ако видеокартата не прегрява, то тя работи с оптимално вероятната за нея периодичност в границите на топлинния коефициент
Уви, аналогията с централните процесори тук не работи. Докато CPU в действителност удържа оптималните честоти в границите на TDP чак до момента в който стартира тротлинг, при видеокартите всичко е по-хитро. Nvidia да вземем за пример, употребява технологията GPU Boost, която от една страна е аналога на Turbo Boost при процесорите, само че има редица ограничавания.

Да вземем за образец GTX 1080 Ti. Нейната номинална периодичност е 1480 MHz, а Boost – 1580 MHz. Но в случай че я натоварим, честотата може да скочи до 1800-1850 MHz. Тоест повече от GPU Boost. После става по-интересно. Критичната температура на видеокартите с архитектура Pascal е 95 градуса по Целзий. Но още при 85 градуса честотата понижава до Boost равнището. Защо става по този начин? Nvidia употребява още една опорна температура, която назовава целева. При нейното постигане видеокартата се пробва да не я надвишава и понижава честотите. Така че, в случай че имате мощна видеокарта единствено с въздушно изстудяване, деликатно следете температурата, тъй като от нея зависи продуктивността.
9Видеокартите без в допълнение зареждане са по-слаби от тези с външно зареждане
На пазара има доста видеокарти от равнището на GTX 1050, 1050 Ti и AMD RX 550 без в допълнение зареждане. Те са като графичните карти от преди време – поставяш ги в PCIe слота и са подготвени за работа. Но версиите 1050 и 1050 Ti са с спомагателен 6-пинов конектор и някои консуматори си мислят, че те са по-производителни.

Всъщност не е тъкмо по този начин. PCIe слотът може да даде на видеокартата до 75 W зареждане и това е напълно задоволително с цел да може 1050 Ti да работи с указаните в уеб страницата на Nvidia честоти. Но в случай че ще вършиме овърклок, зареждането от PCIe няма да стигне. Тук спомагателните 6 пина ще разрешат достигането на по-високи честоти. Но разликата няма да надвиши 10%.
10Не би трябвало да се слагат актуалните PCIe 3.0 видеокарти в PCIe 2.0 или 1.0 слотове
Отново наподобява разумно: пропускателната дарба на PCIe 2.0 x16 е двойно по-ниска в сравнение с при 3.0 x16 и новите видеокарти ще работят по-бавно в остарялата шина. На процедура не е напълно по този начин. Пропускателната дарба на PCI Express 3.0 x16 даже и в най-съвременните топ-видеокарти е с доста огромен задатък.

Добре се вижда, че разликата сред 3.0 x16 и 2.0 x16 е едвам 1% и е в границите на погрешността. И даже да слезем до PCIe 1.1 – т.е. до дънните платки отпреди 10 години, спадът в продуктивността ще бъде едвам 6%. Изводът е елементарен – версията на PCIe към този момент на процедура не оказва изключително въздействие на продуктивността на видеокартите. Така че нищо не ни пречи да използваме Xeon с PCI Express 2.0 дружно с GTX 1080.
11Овърклокът на графичната памет няма смисъл

Разбира се, максимален резултат дава клокът на ядрото – тук увеличението на тактовата периодичност с 10% дава прираст 10%. Но да не забравяме графичната памет, изключително в по-слабите
видеокарти. Много постоянно в тях слагат същите чипове графична памет, каквито се употребяват в по-мощните решения, само че доста им понижават честотата. Това дава опция те да бъдат клокнати с 20-40%, което ще усили продуктивността с 10-15%, При по-слабите графични карти тези проценти не са непотребни.
12С излизането на нова серия видеокарти производителите понижават продуктивността на старите модели
Много известен мит, нормално основан на това, че със старите драйвери старите карти работят по-добре. Няма аргументи за сходно нещо. Ако Nvidia и AMD в действителност желаеха да накарат потребителите да обновяват своите видеокарти по сходен метод, щяха да прекратят тяхната поддръжка, като да вземем за пример при Android устройствата – след към две години. Но да не забравяме, че даже моделите от серия 600 на Nvidia, излезли преди 6 години, и до през днешния ден получават нови драйвери, освен това с приятни допълнения, като да вземем за пример поддръжката на DirectX 12.

Но за какво въпреки всичко се появява сходна разлика сред драйверите? Нищо не е идеално и новите драйвери увеличавайки продуктивността при новите игри, могат леко да я понижат при по-старите геймърски заглавия. Но бързо излизат обновявания и проблемите от този жанр се вземат решение.

Ако знаете още сходни легенди, споделете, с цел да умножим познанието.

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР