Хаби ли мощният хардуер повече ток
Колкото по-мощен е хардуерът на един компютър, толкоз повече сила ще употребява. Това е разумното умозаключение и то би трябвало да е годно при всички обстановки. Според HowTo-Geek обаче не е тъкмо по този начин.
Ако става дума за потребление на компютърната настройка при цялостно натоварване, тогава - да, обикновено е по-мощният процесор и видеокарта да изразходят повече електричество. Но в случай че да вземем за пример се употребяват за напълно елементарни действия, които не изискват най-много запаси или пък компютърът е включен, само че не се употребява?
Тогава обстановката е по-различна. Не е наложително по-мощният хардуер да употребява фрапантно повече сила, когато не се натоварва оптимално или е в режим на очакване. Това зависи в огромна степен от съответния съставен елемент и равнището на оптимизация.
Като цяло разликите при по-малки натоварвания не са толкоз огромни, колкото са при цялостно потребление на наличния запас. Изданието дава за образец следната сметка - видеокартата Nvidia GeForce GTX 1060 употребява 5W сила при режим на очакване (т.е. включен компютър, който не се използва), до момента в който GeForce RTX 3080 употребява 15W. При цена от 12 цента на киловатчас и включен за 8 часа компютър, това ще е разлика от към 29 цента на месец.
При цялостно натоварване обаче, резултатите са радикално разнообразни. Пиковата консумация на GTX 1060 е 125W, до момента в който на RTX 3080 е 345W. Съответно при 8 часа цялостно натоварване, разликата в месечната сметка набъбва до 1,8 $ на месец за GTX 1060 и 4.97 $ на месец за RTX 3080.
Това значи, че потреблението на по-мощен хардуер, чийто благоприятни условия надвишават максимума на софтуера (или играта), може да се окаже икономично, защото той няма да се натоварва до пикови стойности трайно време и ще употребява по-малка част от ресурсите си. А това значи и по-малко генерирана топлота, което ще улесни и охладителната система на компютъра, която също няма да се натоварва толкоз доста и надлежно няма да употребява доста електричество.
Ако става дума за потребление на компютърната настройка при цялостно натоварване, тогава - да, обикновено е по-мощният процесор и видеокарта да изразходят повече електричество. Но в случай че да вземем за пример се употребяват за напълно елементарни действия, които не изискват най-много запаси или пък компютърът е включен, само че не се употребява?
Тогава обстановката е по-различна. Не е наложително по-мощният хардуер да употребява фрапантно повече сила, когато не се натоварва оптимално или е в режим на очакване. Това зависи в огромна степен от съответния съставен елемент и равнището на оптимизация.
Като цяло разликите при по-малки натоварвания не са толкоз огромни, колкото са при цялостно потребление на наличния запас. Изданието дава за образец следната сметка - видеокартата Nvidia GeForce GTX 1060 употребява 5W сила при режим на очакване (т.е. включен компютър, който не се използва), до момента в който GeForce RTX 3080 употребява 15W. При цена от 12 цента на киловатчас и включен за 8 часа компютър, това ще е разлика от към 29 цента на месец.
При цялостно натоварване обаче, резултатите са радикално разнообразни. Пиковата консумация на GTX 1060 е 125W, до момента в който на RTX 3080 е 345W. Съответно при 8 часа цялостно натоварване, разликата в месечната сметка набъбва до 1,8 $ на месец за GTX 1060 и 4.97 $ на месец за RTX 3080.
Това значи, че потреблението на по-мощен хардуер, чийто благоприятни условия надвишават максимума на софтуера (или играта), може да се окаже икономично, защото той няма да се натоварва до пикови стойности трайно време и ще употребява по-малка част от ресурсите си. А това значи и по-малко генерирана топлота, което ще улесни и охладителната система на компютъра, която също няма да се натоварва толкоз доста и надлежно няма да употребява доста електричество.
Източник: vesti.bg
КОМЕНТАРИ




