EN

Problémy s úsporou energie u Radeon a GeForce grafických kariet

Grafické karty oboch spoločností - AMD/ATi a nVidie, by mali v 2D režime šetriť rôznymi spôsobmi energiu. V určitých prípadoch ale tomu tak nie je...V prípade Radeon grafických kariet má problém s úsporou energie, prejavujúci sa od Catalystov 9.3 WHQL, aj názov - PowerPlay bug. Ten je odvodený od PowerPlay, teda feature starajúce sa o šetrenie energie v 2D. Našťastie sa tento bug prejavuje len s CrossFire zapojením a spôsobuje, že sa druhé GPU po štarte systému nepodtaktuje do 2D režimu. Menej závažným robí tento bug aj skutočnosť, že po štarte 3D aplikácie a následnom vrátení sa do 2D už funguje všetko ako má. Dlho o tomto bugu AMD/ATi nevedela a asi aj preto je v poslednom Catalyste 9.4 WHQL.

medzi kartami postihnutými PowerPlay bugom je aj Radeon HD 4870 X2
 

U GeForce grafických kariet funguje podtaktovanie jadra a clockgating v 2D režime väčšinou správne. Určitý užívatelia majú ale vždy problém, že ich grafická karta pracuje v 2D naďalej s 3D pracovnými frekvenciami. Jedným z možných dôvodov môže byť bug, ktorý majú všetky GeForce grafické karty s jadrom G200(b). Ten sa prejavuje len vtedy, ak máte zapojené 2 monitory a spôsobuje, že grafická karta pracuje aj v 2D režime ako keby bola v 3D režime. Je prítomný už od vydania prvých GeForce GTX 200 kariet/príslušných ovládačov a dodnes žiaľ nebol odstránený. Zaujímavé je tiež, že až v release notes GeForce 185.66 beta spomína nVidia medzi "Open Issues in Version 185.65" tento problém, avšak na Geforce 9800 GT:

 
Medzi GeForce 200 grafickými kartami sa nič podobné nespomína, čo nasvedčuje, že nVidia o tomto bugu buď nevie, alebo nechce vedieť.

Radeon aj GeForce grafické karty majú v určitých konšteláciách problémy so znížením spotreby v 2D režime. Pokiaľ sa teda vaša grafická karta nechce v 2D režime podtaktovať, môže to byť spôsobené aj vyššie opísanými bugmi. Okrem prítomnosti týchto bugov je smutný aj fakt, že iba málo internetových stránok informovali svojich čitateľoch o týchto nedostatkoch. Možno aj preto neprikladala AMD/ATi a nVidia dôležitosť k ich odstráneniu. Alebo o tom naozaj nevedeli? Oba bugy sú nepríjemné, ktorý je ale podľa Vás závažnejší? Využite možnosť komentovať novinku a vyjadrite svoj názor.

Zdroje: vlastné




Komentáre (21)
eFatal2ty
nevypravaj blbosti ja som zapojil moju 4870x2 na fortron 500W a isla v pohode.
vacropoli
myslim ze zavaznjsie je to u nVIDIE
maugly
teoreticky mi netreba aby moja grafika zrala menej zivotnost jej to nepredlzi tak mi to nevadi ked si vypita 200W alebo 100W keb ma zrat menej to je jedno . Je to len koli setreniu energii a mojej penazenky za nu a vela toho aj tak neusetry pokial sa nebude uplne vypinat ze by sa zapla iba integrovana tak az taky velmi velky vyznam nevydim.
Brechac
Ale keď je napríklad Crossfire alebo SLI zdroj má neakých 800W tak už tam by som mohol neaký rozdiel pocítiť, lebo je rozdiel v 2D režime mať spotrebu v CF 650W alebo 250W rozdiel je 400W krát jedna kilowatt hodina, za mesiac by sa dalo niečo ušetriť hoci nie neako extrémne veľa ale na neaký upgrade by sa dalo možno ušetriť :-)))) (neprepočítal som to lebo neviem kolko stojí jedna kilowatt hodina :-D )
maugly
no to uz ano ale ked ze si elektriku vyrabam sam tak mna osobke to nevzrusuje . ale jasne pre masovu vedsinu je to markantny rozdiel a neuveritelne usetrenie peniaskou za rocnu spalenu elektriku . Samozrejme ze primam taketo vylepsenia je to aj ekonomicke a zaroven aj ekologicke . :o)))
gogomiro
keby to fungovalo na 100% tak to potesi kazdeho,ale kedze to nefunguje zatial spravne tak ako by malo tak to podla mna ani az tak velmi nevadi,vsetko ma svoj cas a musi prejst vyvojom .Je sice pravda ze marketing tiez hraje svoju rolu.A o setreni penazenky sa da pisat hodiny ,kedze usetrit sa da aj na inych veciach ako len spominanej elektrike.Nemozeme mat hned vsetko naraz sto percentne co by sme potom robily?
eFatal2ty
Pri 4870X2 je to hruza, des. Ked zapinam Hru(ale vacsinou pri loadingu alebo prvych par sekund v hre) tak karta padne zrazu len take ciary na monitore, a reset. Ked hru vypinam to iste ale nie vzdy. Je to tym prepinanim z 2D do 3D alebo co to moze byt neviete? Driver mam 9.3 kedze 9.4 znizuje vykon.
eFatal2ty
jaj a este vacsinou to dako vydrzi ale nehorazne to seka zo zaciatku 5-10FPS pri takom crysise ale po par sekundach sa to rozbehne na 30-40 a ide uz normalne jak ma.
hurikan69
eFatal2ty: Mne to robi ked zapinam hru tiez, ale to preto lebo mam nastaveny mod na ATI Tray Tool. ;) Cize sa pretaktuje len pre tuto hru. :D
eFatal2ty
No dobre a mas tiez 4870X2, lenze ja nemam ziadny mod ani ju nemam nataktovanu. Pripada mi to vzdy jak keby vypadla karta. Zvuk ide a na monitore su take ciary co blikaju. Po par sekundach zvuk sekne a resetne sa PC. Tak je to s tym prepinanim 2D-->3D ci co to je?
crux2005
tak sa to neprejavuje - tvoj problém bude iný
razor329
eFatal2ty- myslím,že 9.3 je pre staré GPU. A radšej by som dal 9.4.Mne pri 9.3 nešli programy a hry. Konkrétne pri H.A.V.X , COD5 a adobe photoshop C4.A myslím, že to je tym 2D-->3D
crux2005
s Catalystom 9.3 a Radeon HD 4870 spustím v pohode Adobe Photoshop CS 3 aj CoD: Waw a iné hry ;-)
eFatal2ty
Mna nepresvedcite. Videl som na vlastne oci rozdiel medzi 9.3 a 9.4 v Crysis, GTA4 to sekalo ze sa to hrat nedalo pri 9.4 strasny prepad vykonu. Radsej pockam na 9.5. 9.3 si myslim ze su najlepsie zatial.
crux2005
tak ja ťa určite nechcem presvedčiť, čítaj radšej...
eFatal2ty
to patrilo tomuto razor329
RPeterR
Vacropoli- vážne? Používanie 2 monitorov je podľa teba bežnejšie ako Crossfire zapojenie? Osobne nepoznám žiadneho človeka ktorý by prevádzkoval 2 monitory. Maugly- keď začneš platiť účty za elektrinu, veľmi rýchlo pochopíš. Ono nejde o to, že by ti sieť nedokázala dopraviť viac Wattov (obrazne povedané :D) ale o to, že tvoji rodičia to pekne pocítia na účte za elektrinu :(. Brechac- ani CrossfireX dvoch RadeonovX2 samozrejme nemá spotrebu 800W ;). A to sa už bavíme o Quad-SLI a nie o tu spomínanom SLI - tj. maximálne HD4890. Čiže +- môže byť najväčšia spotreba v SLI dokopy 360W, čiže rozdiel medzi Idle a Load frekvenciami druhej karty môže činiť maximálne takých 100W - ale aj to sa pekne prejaví na celoročnom účte za elektrinu :(
RPeterR
Ehm, odmyslite si všetky slová SLI a nahraďte ich slovami CrossFire :D Nejak mi pri písaní preplo :D
maugly
to je samozrejme preto mam solarne panely po celom baraku aby sa mi naklady za E.energie znizili .
baqq
2 monitory... staci ze mas vystup na TV... a rozhodne viac ludi pouziva PC na TVout, ako tych co prevadzkuju SLI/CF... inak je to "krasne" ze pri 9800GT je taky bug pri dualview, ked iny mod (clone) karta ani nepodporuje... tak je to od nVidie fakt krasny darcek. ale osobne som si to nevsimol, predsa ak by karta bezala na plny vykon, tak by nemala 40 stupnov s vetrakom na uplne minimum... mozno je to bug, ze "moze sa stat..." nie ze automaticky to na vsetkych tychto kartach takto aj je...
pitko1993
Moja 9800GT spapa pomerne dost energie a 500W zdroj je potrebny
Pridať nový komentár
TOPlist