GPU Boost - Nvidias Self Boosting Algorithm Explained
Grafikkortteknologier er skred frem i de sidste par generationer med hver generation, der bringer en betydelig forbedring ikke kun i kortets samlede ydeevne, men også i de funktioner, kortene tilbyder. Det er ikke overraskende, at det er afgørende for både Nvidia og AMD at fortsætte med at innovere og fortsætte med at udvikle funktionssættene på deres kort og de iboende teknologier i dem sammen med generationens forbedringer i ydeevne med hver efterfølgende serie af grafikkort.
Clock speed boosting er blevet en almindelig funktion i pc-hardwarebranchen i disse dage med både grafikkort såvel som CPU'er, der tilbyder denne teknologi. At variere komponentens urhastigheder på grund af ændringer i pc'ens forhold kan føre til meget forbedret ydeevne såvel som effektiviteten af den del, hvilket i sidste ende giver en meget bedre brugeroplevelse. På grund af den hurtige progression inden for dette felt er grafikkortens standard boosting-opførsel blevet forbedret yderligere og forbedret med teknologier som GPU Boost 4.0, der kommer i front i 2020. Disse nye teknologier er blevet udviklet for at maksimere grafikkortets ydeevne. når det er nødvendigt, samtidig med at topeffektiviteten opretholdes under lettere belastninger.
GPU Boost
Så hvad er GPU Boost nøjagtigt? Kort sagt, GPU Boost er Nvidias metode til dynamisk at øge grafikkortens hastighed, indtil kortene rammer en forudbestemt effekt- eller temperaturgrænse. GPU Boost Algorithm er en meget specialiseret og betinget opmærksom algoritme, der foretager ændringer i split-sekund til et stort antal parametre for at holde grafikkortet på den maksimale mulige boost-frekvens. Denne teknologi gør det muligt for kortet at øge meget højere end det annoncerede "Boost Clock", der muligvis er angivet på kassen eller på produktsiden.
Inden vi dykker ned i mekanismen bag denne teknologi, skal et par vigtige terminologier forklares og differentieres.
Terminologier
Mens de handler efter et grafikkort, kan gennemsnitsforbrugeren muligvis støde på en række numre og forvirrende terminologier, der giver ringe mening eller endnu værre, ender med at modsige hinanden og yderligere forvirre kunden. Derfor er det nødvendigt at tage et kort kig på, hvad de forskellige urhastighedsrelaterede terminologier betyder, når du ser på en produktside.
- Base ur: Basisuret på et grafikkort (også undertiden benævnt "Core Clock") er den mindste hastighed, hvormed GPU'en annonceres til at køre. Under normale forhold falder kortets GPU ikke under denne klokkehastighed, medmindre forholdene ændres væsentligt. Dette antal er mere markant i ældre kort, men bliver mindre og mindre relevant, da boosting-teknologier er i centrum.
- Boost Clock: Det annoncerede Boost Clock på kortet er den maksimale urhastighed, som grafikkortet kan opnå under normale forhold, før GPU Boost aktiveres. Dette klokkehastighedsnummer er generelt ret højere end Base Clock, og kortet bruger det meste af sit strømbudget til at opnå dette nummer. Medmindre kortet er termisk begrænset, rammer det dette annoncerede boostur. Dette er også den parameter, der ændres i "Factory Overclocked" -kort fra AIB-partnere.
- "Spilur": Med udgivelsen af AMDs nye RDNA-arkitektur på E3 2019 annoncerede AMD også et nyt koncept kendt som Game Clock. Denne branding er eksklusiv til AMD-grafikkort i skrivende stund og giver faktisk et navn til de vilkårlige urhastigheder, man kunne se under spil. Dybest set er Game Clock den hastighed, som grafikkortet skal ramme og vedligeholde under spil, hvilket generelt er et sted mellem Base Clock og Boost Clock til AMD-grafikkort. Overclocking af kortet har en direkte indvirkning på denne særlige hastighed.
Mekanisme ved GPU Boost
GPU Boost er en interessant teknologi, der er ret fordelagtig for spillere og virkelig ikke har nogen væsentlig ulempe så at sige. GPU Boost øger grafikkortets effektive klokkehastighed, selv ud over den annoncerede boostfrekvens, forudsat at visse forhold er gunstige. Hvad GPU Boost gør, er i det væsentlige overclocking, hvor det skubber GPU's klokkehastighed ud over det annoncerede "Boost Clock". Dette gør det muligt for grafikkortet at presse mere ydelse ud automatisk, og brugeren behøver slet ikke at tilpasse noget. Algoritmen er i det væsentlige "smart" på grund af det faktum, at den kan foretage ændringer i sekunder på forskellige parametre på én gang for at holde den vedvarende klokkehastighed så høj som muligt uden risiko for at gå ned eller artefakte osv. Med GPU Boost er grafikkort kører højere end annonceret urhastigheder ud af kassen, hvilket giver brugeren i det væsentlige et overclocked kort uden behov for manuel indstilling.
GPU Boost er hovedsageligt en Nvidia-specifik branding, og AMD har noget lignende, der fungerer på en anden måde. I dette indholdsstykke vil vi primært fokusere på Nvidias implementering af GPU Boost. Med sin Turing-serie af grafikkort introducerede Nvidia den fjerde iteration af GPU Boost kaldet GPU Boost 4.0, der tillod brugerne at manuelt justere de algoritmer, som GPU Boost bruger, hvis de finder det passende. Dette var ikke muligt med GPU Boost 3.0, da disse algoritmer var låst inde i driverne. GPU Boost 4.0 på den anden side giver brugerne mulighed for manuelt at tilpasse forskellige kurver for at øge ydeevnen, hvilket vil være en god nyhed for overclockere og entusiaster.
GPU Boost 4.0 har også tilføjet forskellige andre fine tweaks såsom temperaturdomæne, hvor nye bøjningspunkter er tilføjet. I modsætning til GPU Boost 3.0, hvor der var et stejlt og pludseligt fald fra boostur ned til basisur, når en bestemt temperaturgrænse blev krydset, kan der nu være flere trin undervejs mellem de to urhastigheder. Dette giver mulighed for et større niveau af granularitet, som gør det muligt for GPU'en at klemme selv den sidste bit ydeevne også under ugunstige forhold.
Overclocking af grafikkortene med GPU boost er ret ligetil, og ikke meget har ændret sig i denne henseende. Enhver ekstra forskydning til kerneklokken anvendes faktisk på “Boost Clock”, og GPU Boost-algoritmen forsøger yderligere at forbedre den højeste klokkehastighed med en lignende margin. At øge Power Limit-skyderen til det maksimale kan hjælpe betydeligt i denne henseende. Dette gør stresstest af overklokken lidt mere kompliceret, fordi brugeren skal holde øje med urets hastigheder såvel som temperaturer, strømforbrug og spændingsnumre, men vores omfattende stresstestguide kan hjælpe med den proces.
Betingelser for GPU Boost
Nu hvor vi har diskuteret mekanismen bag selve GPU Boost, er det vigtigt at diskutere de betingelser, der skal opfyldes for at GPU Boost skal være effektiv. Der er et stort antal forhold, der kan påvirke den endelige frekvens, der opnås af GPU Boost, men der er tre hovedbetingelser, der har den mest betydningsfulde indflydelse på denne boostende adfærd.
Power Headroom
GPU Boost vil automatisk overklokke kortet, forudsat at der er nok strømhøjde til kortet til at muliggøre de højere urhastigheder. Det er forståeligt, at højere urhastigheder trækker mere strøm fra PSU'en, så det er ekstremt vigtigt, at der er nok strøm til grafikkortet, så GPU Boost kan fungere korrekt. Med de fleste moderne Nvidia-grafikkort bruger GPU Boost al den tilgængelige strøm, som den kan bruge til at skubbe urets hastigheder så højt som muligt. Dette gør Power Headroom til den mest almindelige begrænsende faktor for GPU Boost-algoritmen.
Simpelthen at øge skyderen "Power Limit" til det maksimale i enhver overclocking-software kan have stor indflydelse på de endelige frekvenser, der rammes af grafikkortet. Den ekstra strøm, der gives til kortet, bruges til at skubbe urets hastighed endnu højere, hvilket er et bevis på, hvor meget GPU Boost-algoritmen afhænger af magthøjde.
Spænding
Grafikkortets strømforsyningssystem skal kunne levere den ekstra spænding, der er nødvendig for at ramme og opretholde de højere urhastigheder. Spænding bidrager også direkte til temperaturen, så den hænger sammen med den termiske loftshøjde. Uanset hvad er der en hård grænse for, hvor meget spænding kortet kan bruge, og denne grænse indstilles af kortets BIOS. GPU Boost bruger enhver spændingshøjde til at forsøge at opretholde den højeste urhastighed, den muligvis kan.
Termisk hovedhøjde
Den tredje vigtige betingelse, der skal opfyldes for en effektiv drift af GPU Boost, er tilgængeligheden af tilstrækkelig termisk hovedhøjde. GPU Boost er ekstremt følsom over for GPU-temperaturen, da den øges og formindsker urets hastighed baseret på selv de mindste temperaturændringer. Det er vigtigt at holde temperaturen på GPU'en så lav som muligt for at opnå de højeste urhastigheder.
Temperaturer højere end 75 grader Celcius begynder at sænke urets hastighed markant, hvilket kan påvirke ydeevnen. Urets hastighed ved disse temperaturer vil sandsynligvis stadig være højere end Boost Clock, men det er ikke en god ide at lade ydeevnen være på bordet. Derfor kan tilstrækkelig kabinetventilation og et godt kølesystem på selve GPU'en have en betydelig indvirkning på de urhastigheder, der opnås gennem GPU Boost.
Boost Binning og Thermal Throttling
Et interessant fænomen, der er iboende for driften af GPU Boost, er kendt som boost binning. Vi ved, at GPU Boost-algoritmen hurtigt ændrer GPU's klokkehastighed afhængigt af forskellige faktorer. Urets hastighed ændres faktisk i blokke på 15 MHz hver, og disse 15 MHz-dele af urets hastigheder er kendt som boostbakker. Det kan let observeres, at GPU Boost-numre vil variere fra hinanden med en faktor på 15Mhz afhængigt af effekt, spænding og termisk loftshøjde. Dette betyder, at ændring af de underliggende forhold kan falde eller øge kortets hastighed med en faktor på 15 MHz ad gangen.
Begrebet termisk nedbrydning er også interessant at udforske med GPU Boost-drift. Grafikkortet starter faktisk ikke termisk gashåndtering, før det når en indstillet temperaturgrænse kendt som Tjmax. Denne temperatur svarer normalt til et sted mellem 87-90 grader Celcius på GPU-kernen, og dette specifikke nummer bestemmes af GPU'ens BIOS. Når GPU-kernen når denne indstillede temperatur, falder urets hastigheder gradvist, indtil de falder selv under basisuret. Dette er et sikkert tegn på termisk nedbrydning sammenlignet med almindelig boostbinning, som udføres af GPU boost. Hovedforskellen mellem termisk throttling og boost binning er, at termisk throttling finder sted ved eller under basisuret, og boost binning ændrer den maksimale klokkehastighed, der opnås af GPU Boost ved hjælp af temperaturdataene.
Ulemper
Der er ikke mange ulemper ved denne teknologi, som i sig selv er en ret fed ting at sige om en grafikkortfunktion. GPU Boost giver kortet mulighed for automatisk at øge dets klokkehastigheder uden brugerinput og låser kortets fulde potentiale op ved at give ekstra ydelse uden ekstra omkostninger for brugeren. Der er dog et par ting at huske på, hvis du ejer et Nvidia-grafikkort med GPU Boost.
På grund af det faktum, at kortet bruger hele det tildelte strømbudget, vil strømforsyningsnumrene på kortet være højere end de annoncerede TBP- eller TGP-numre kan få dig til at tro. Derudover vil den ekstra spænding og strømforbrug føre til højere temperaturer på grund af det faktum, at kortet automatisk overclocker ved hjælp af den tilgængelige temperaturhøjde. Temperaturerne bliver på ingen måde farligt høje, for så snart temperaturerne krydser en bestemt grænse, vil spændingen og strømforbruget blive droppet for at kompensere for den ekstra varme.
Afsluttende ord
Hurtige fremskridt inden for grafikkortteknologier har set, at nogle ekstremt imponerende funktioner finder vej i forbrugernes hånd, og GPU Boost er bestemt en af dem. Nvidias funktion (og AMDs lignende funktion) gør det muligt for grafikkortene at nå deres maksimale potentiale uden behov for brugerinput for at give den maksimale ydelse uden for kassen. Denne funktion eliminerer alt andet end behovet for manuel overclocking, da der virkelig ikke er meget plads til manuel finjustering på grund af den fremragende styring af GPU Boost.
Samlet set er GPU Boost en fremragende funktion, som vi gerne vil se, blive bedre og bedre med forbedringer af kernealgoritmen bag denne teknologi, der mikromanagerer de små justeringer til forskellige parametre for at få den bedst mulige ydeevne.