Meny
Är gratis
registrering
Hem  /  Utbildning/ Nvidia g-synkronisering behövs. NVIDIA G-Sync-teknik

Om Nvidia g-synkronisering behövs. NVIDIA G-Sync-teknik

På den här bilden kan du se hur ramen från spelet verkade vara uppdelad i två. Vad orsakade detta? Allt är mer än enkelt. Videokortet bildar bilden ram för bildruta, varje ny bildruta kommer till dig på skärmen. Men inte omedelbart efter skapandet, utan bara vid nästa uppdatering av bilden på skärmen. Bilden på den uppdateras strikt ett visst antal gånger per sekund, och, vilket är viktigt i vårt fall, inte direkt på hela skärmen, utan rad för rad uppifrån och ned. Samtidigt förbereder grafikkortet bildrutor inte i samma takt, utan var och en i en helt annan takt, beroende på scenens komplexitet. För att på något sätt synkronisera beredningen av bildrutor av grafikadaptern och utmatningen av dessa ramar till bildskärmen, använder videoadaptrar två så kallade buffertar: bildskärmen läser en ny bildruta från en buffert, och nästa bildas i den andra . Detta är dock ofta inte tillräckligt för att säkerställa en jämn bild, och vi ser hälften av två olika bildrutor på skärmen, eller till och med flera bildrutor samtidigt.

Det finns en utgång!

För att inte observera denna förvirring permanent finns det en teknologi för vertikal synkronisering - synkronisering av utmatningen av ramar från videokortet och uppdatering av bilden på monitorn. Men om ditt grafikkort "inte drar" och skapandet av nya bildrutor sker mer sällan än vad bilden på monitorn uppdateras, kommer du på den sista att se samma sista bildruta två eller flera gånger tills nästa är redo. Även om, i genomsnitt, din grafikaccelerator i ett visst spel vid vissa inställningar håller ett stort antal bilder per sekund i genomsnitt, om bara en av de många bilderna inte hinner med nästa cykel med att uppdatera bilden på skärmen, tiden innan denna ram visas fördubblas. Detta kallas en "fris". Om du spelar snabba skjutspel, så kan givetvis alla visningsfördröjningar kosta dig en omordad motståndare eller till och med livet för ditt virtuella alter ego.

NVIDIA G-SYNC-tekniken är designad för att rädda spelare från båda "övervaka" åkommor samtidigt. Det är sant att detta inte är det första försöket från de gröna att hitta ett botemedel för att eliminera tårar och friser. Den tidigare var en annan teknik som heter Adaptive V-Sync. Det är sant att den bara automatiskt slår på och av vertikal synkronisering beroende på bildhastigheten.

Hur är det med AMD? Och det här företaget förstår att det är nödvändigt att spara nerverna hos spelare, eftersom de praktiskt taget är motorn i PC-industrin och mycket som är kopplat till det. Tack vare AMD innehåller den kommande DisplayPort-revisionen, kallad 1.2a, teknik som gör att bildskärmens uppdateringsfrekvens kan justeras för att synkronisera den med bildfrekvensen på grafikkortet. Och samtidigt finns det inga proprietära styrelser i bildskärmar. Detta är ett intressant och definitivt billigare alternativ, men det har ännu inte sett ljuset, men mer än en tillverkare har aviserat bildskärmar med G-SYNC.

På den gamla goda tiden när ägarna personliga datorer de använde aktivt enorma CRT-skärmar, tjänade sig själva astigmatism, det var ingen fråga om jämnheten i bilden. Den tidens teknik stödde inte heller 3D. Därför fick fattiga användare nöja sig med vad de hade. Men allt eftersom tiden går utvecklas teknologier, och många är inte längre nöjda med att ramarna rivas (slitna) i ett dynamiskt spel. Detta gäller särskilt för de så kallade cyberatleterna. I deras fall avgör en bråkdels sekund allt. Hur man är?

Framstegen står inte stilla. Därför kan det som tidigare verkade omöjligt nu tas för givet. Samma situation är med bildkvaliteten på datorn. Tillverkare av grafikkort och andra komponenter för PC arbetar nu hårt med problemet med dålig bildkvalitet på bildskärmar. Och jag måste säga att de redan har kommit ganska långt. Bara lite återstår, och bilden på skärmen blir perfekt. Men allt detta är en lyrisk utvikning. Låt oss gå tillbaka till vårt huvudämne.

Lite historia

Många bildskärmar har aktivt försökt att övervinna rivning och förbättra bilden. Vad de inte uppfann: de ökade skärmens "hertz", slog på V-Sync. Inget hjälpte. Och en vacker dag kommer den välkända tillverkaren av grafikkort NVIDIA att presentera G-Sync-tekniken, med hjälp av vilken det är möjligt att uppnå "orealistisk" jämnhet i bilden utan några artefakter. Det verkar vara bra, men det finns ett litet men väldigt allvarligt "men". För att använda det här alternativet behöver du monitorer med G-Sync-stöd. Tillverkarna av bildskärmar var tvungna att anstränga sig och "kasta ut" ett par dussin modeller på marknaden. Vad kommer härnäst? Låt oss ta en titt på tekniken och försöka ta reda på om den är så bra.

Vad är G-Sync?

G-Sync är NVIDIAs skärmteknik. Den kännetecknas av mjuka rambyten utan några artefakter. Det finns ingen bildrivning, inga nedgångar. För att denna teknik ska fungera korrekt krävs en ganska kraftfull dator, eftersom det krävs en ganska stor processorkraft för att bearbeta en digital signal. Det är därför endast nya modeller av grafikkort från NVIDIA levereras med teknik. Dessutom är G-Sync en egenutvecklad NVIDIA-funktion, så ägare av grafikkort från andra tillverkare får inte en chans.

Dessutom krävs en G-Sync-monitor. Saken är den att de är utrustade med ett kort med en digital signalomvandlare. Ägare av konventionella bildskärmar kommer inte att kunna dra fördel av detta spännande alternativ. Det är naturligtvis orättvist, men sådan är policyn för moderna tillverkare - att tömma så mycket som möjligt mer pengar från en dålig användare. Om din dator är konfigurerad för att använda G-Sync, och bildskärmen mirakulöst stöder detta alternativ, kan du mycket väl uppskatta alla nöjen med denna teknik.

Hur G-Sync fungerar

Låt oss försöka förenkla hur G-Sync fungerar. Faktum är att en vanlig GPU (videokort) helt enkelt skickar digital signal till monitorn, men räknas inte med dess frekvens. Det är därför signalen när den visas på skärmen visar sig vara "trasig". Signalen som kommer från GPU:n avbryts av bildskärmsfrekvensen och ser klumpig ut i den slutliga versionen. Även med V-Sync-alternativet aktiverat.

När du använder G-Sync justerar grafikprocessorn själv monitorns frekvens. Det är därför signaler når matrisen när de verkligen behöver den. Tack vare detta blir det möjligt att undvika bildrivning och förbättra bildens jämnhet som helhet. Eftersom konventionella bildskärmar inte tillåter grafikprocessorn att styra sig själv, uppfanns en G-Sync-skärm, i vilken ett NVIDIA-kort var inbäddat för att reglera frekvensen. Därför är det inte möjligt att använda konventionella monitorer.

Bildskärmar som stöder denna teknik

De dagar då användare dödade sin syn genom att stirra på gamla CRT-monitorer i timmar är förbi. De nuvarande modellerna är eleganta och ofarliga. Så varför inte lägga till lite ny teknik till dem? Den första bildskärmen med NVIDIA G-Sync-stöd och 4K-upplösning släpptes av Acer. Nyheten slog igenom.

Högkvalitativa bildskärmar med G-Sync är fortfarande ganska sällsynta. Men i planerna har tillverkarna en idé att göra dessa enheter till standard. Troligtvis kommer bildskärmar som stöder denna teknik om fem år att bli en standardlösning även för en kontorsdator. Under tiden återstår det bara att titta på dessa nya föremål och vänta på deras utbredda distribution. Det är då de blir billigare.

Efter det började monitorer med stöd för G-Sync att nita allt och ens. Även budgetmodeller med denna teknik har dykt upp. Men vad är nyttan med den här tekniken på en budgetskärm med dålig matris? Men hur som helst, sådana modeller finns. Det bästa alternativet för det här alternativet är (G-Sync kommer att arbeta med det med full styrka).

Bästa bildskärmar med G-Sync

Bildskärmar med G-Sync-teknik sticker ut i en speciell serie av enheter. De måste ha de egenskaper som krävs för att detta alternativ ska fungera fullt ut. Det är tydligt att inte alla skärmar klarar av denna uppgift. Flera ledare inom produktionen av sådana monitorer har redan identifierats. Deras modeller visade sig vara mycket framgångsrika.

Till exempel är G-Sync-skärmen en av de ljusaste representanterna för denna linje. Detta är en premiumenhet. Varför? Döm själv. Skärmens diagonal är 34 tum, upplösningen är 4K, kontrasten är 1: 1000, 100 Hz, svarstiden för matrisen är 5 ms. Dessutom skulle många vilja skaffa sig detta "monster". Det är klart att han kommer klara G-Sync-tekniken med råge. Den har inga analoger ännu. Du kan lugnt kalla honom bäst i sin klass och inte ta fel.

Generellt sett är ASUS G-Sync-skärmar nu i toppen av Olympus. Inte en enda tillverkare har ännu kunnat överträffa detta företag. Och det är osannolikt att det någonsin kommer att fungera. ASUS kan kallas en pionjär i detta avseende. Deras G-Sync-aktiverade monitorer blir virala.

Framtiden för G-Sync

Nu försöker G-Sync-tekniken aktivt implementeras i bärbara datorer. Vissa tillverkare har till och med släppt ett par av dessa modeller. Dessutom kan de fungera utan ett G-Sync-kort i monitorn. Vilket är förståeligt. Ändå har den bärbara datorn lite olika designfunktioner. Det finns tillräckligt med grafikkort med stöd för denna teknik.

Förmodligen kommer NVIDIA G-Sync snart att inta en betydande plats i datorbranschen. Bildskärmar med denna teknik borde vara billigare. Så småningom bör detta alternativ bli allmänt tillgängligt. Annars, vad är poängen med att utveckla det? Än så länge är i alla fall inte allt så rosenrött. Det finns några problem med implementeringen av G-Sync.

I framtiden kommer G-Sync-tekniken att bli samma vardagliga sak som en gång för oss var VGA-porten för att ansluta en bildskärm. Men alla typer av "vertikal synkronisering" mot bakgrund av denna teknik ser ut som en flagrant anakronism. Inte bara kan dessa föråldrade teknologier inte ge en tillfredsställande bildkvalitet, utan de "äter" också en ansenlig mängd systemresurser. Definitivt, med tillkomsten av G-Sync, deras plats i historiens soptunna.

Förutom en realistisk, vacker bild krävs en stabil bildhastighet för maximal njutning av ett datorspel. Dess lätta sättningar, såväl som visuella artefakter som sönderrivning av ramar, kan göra den ospelbar. Tidigare har vertikal teknik använts för att lösa sådana problem. synkronisera V-Sync men resultaten är ofta dåliga. V för närvarande Båda de stora GPU-tillverkarna, NVIDIA och AMD, har utvecklat sina egna synkteknologier som kallas G-Sync respektive FreeSync, som får spel att framstå som mycket smidigare än tidigare.

Om frekvenserna är osynkroniserade...

Varför finns det en stamnings- eller rivningseffekt under spelandet? Faktum är att uppdateringshastigheten på skärmen på datorskärmar vanligtvis är fixerad till 60 Hz, det vill säga att skärmen uppdateras 60 gånger per sekund. Antalet bilder per sekund som skapas av grafikkortet under spelet är inte konstant. Det är när skärmens uppdateringsfrekvens inte matchar bildfrekvensen på grafikkortet som vi kan observera de ovannämnda effekterna, vilket påverkar uppfattningen av spelet obehagligt. Med tanke på att grafikkortens prestanda ständigt förbättras ökar bildfrekvensen i spel – även vid höga bildkvalitetsinställningar, men skärmens uppdateringsfrekvens för de flesta bildskärmar har förblivit lika med 60 Hz. Som ett resultat av denna inkonsekvens får vi ännu fler oönskade visuella artefakter under spelet.

V-Sync-teknik

Tidigare inkluderade vi V-Sync för att göra spelandet smidigare. Denna funktion talar om för grafikkortet att mata ut exakt 60 bilder per sekund till skärmen, som uppdateras samma 60 gånger per sekund. Resultatet är ingen ramslitage. Detta begränsar dock prestandan hos flaggskeppsgrafikkort. Dessutom, om spelhastigheten inte når 60 bilder per sekund, till exempel, eftersom en viss scen är för grafiskt komplex, kommer grafikkortet att tvingas producera ännu mindre - 30 bilder per sekund, tills en mindre komplex scen uppnås , och då kommer bildhastigheten igen att stiga till 60. Eftersom fluktuationerna i bildhastigheten är för stora kommer en sådan växling mellan 30 och 60 bilder per sekund att märkas för ögat som en "avmattning" av bilden.

NVIDIA G-Sync-teknik

Båda de största GPU-tillverkarna, NVIDIA och AMD, är ute efter att förbättra bildkvaliteten i spel, så de löste båda problemet med att synkronisera grafikkort och bildskärm, men på olika sätt. NVIDIA var först med att presentera sin teknologi som heter G-Sync. Detta är en hårdvarulösning som kräver att ett dedikerat chip bäddas in direkt i monitorn. Chipet har ett buffertminne genom vilket data utbyts med ett grafikkort i NVIDIA GeForce-serien. G-Sync-chippet läser bildrutor från grafikkortet och ändrar automatiskt skärmens uppdateringsfrekvens i enlighet med den aktuella spelhastigheten för att matcha varandra. I det här fallet kan skärmens uppdateringsfrekvens varieras dynamiskt i intervallet från 0 till 240 Hz i realtid. Resultatet är den totala frånvaron av alla möjliga visuella artefakter i spel, som bildruta, sakta ner, skärmflimmer.

AMD FreeSync-teknik

Teknologi AMD FreeSync dök upp senare, men har redan vuxit till den andra versionen. Precis som G-Sync ändrar den dynamiskt bildskärmens uppdateringsfrekvens för att matcha bildfrekvensen för Radeon-serien. Detta löser det "lag"-problem som är typiskt för traditionell V-Sync, vilket gör spelet smidigare.

Till skillnad från NVIDIA G-Sync-teknik, som kräver diskreta chips, implementeras FreeSync på gränssnittsnivå. Det är en implementering av industristandarden DisplayPort Adaptive-Sync, som låter dig ändra uppdateringsfrekvensen i realtid via DisplayPort-gränssnittet. Nyaste versionen HDMI-gränssnitt stöder även FreeSync. FreeSync kräver inga chips för att läggas till bildskärmar, men det kräver en DisplayPort- eller HDMI-skärm och ett grafikkort med en Radeon GPU.

Förutom förbättrad bildjämnhet förbättrar FreeSync 2-tekniken bildkvaliteten. Low Framerate Compensation (LFC) har utökat uppdateringsfrekvensområdet för FreeSync-skärmar för att säkerställa en jämnare visning även när spelhastigheten faller under 30 bilder per sekund. Dessutom stöder FreeSync 2 dubbla sRGB-färgomfånget och utökat dynamiskt omfång HDR.


Slutsats

Båda adaptiva synkroniseringsteknikerna, NVIDIA G-Sync och AMD FreeSync, fungerar effektivt. Bildförbättringen efter att ha aktiverat dem kommer att märkas, särskilt i snabba spel med komplexa scener, som förstapersonsskjutare, racing, sportsimulatorer. Det är dock mycket svårt att jämföra de två teknologierna med varandra utifrån några kvantitativa data. Du kan bara lita på våra egna ögon, så varje användare kommer att ha sin egen subjektiva åsikt om vilken som är bäst.

Den objektiva skillnaden mellan de två teknikerna är kostnaden. Förutom att ha ett kompatibelt grafikkort med lämplig GPU kräver NVIDIA G-Sync en bildskärm med ett extra diskret chip och en betald licens från NVIDIA, vilket återspeglas i kostnaden och priset för den färdiga produkten. G-Sync-skärmar är dyrare än deras AMD FreeSync-motsvarigheter, vilket är anledningen till att det finns fler FreeSync-skärmar på marknaden. Å andra sidan är det verkligen värt det: bildskärmar med G-Sync är oftast av en högre ände m.t.t. tekniska egenskaper och, i kombination med högpresterande GeForce-grafikkort, levererar fantastiska bilder. Om vi ​​tar hänsyn till prisskillnaden, bildskärmar med FreeSync och Radeon grafik representerar en mer lönsam lösning när det gäller maximal avkastning på investeringen.

I den här artikeln kan du lära dig hur du ställer in FreeSync-teknik för en konfiguration med tre skärmar.

Det finns saker som inte bara är svåra att skriva om, utan väldigt svåra. Som du bara behöver se en gång än höra om dem hundra gånger eller läsa på Internet. Det är till exempel omöjligt att beskriva vissa naturliga underverk, som den majestätiska Grand Canyon eller de snötäckta Altaibergen. Du kan titta på hundra gånger vackra bilder med sina bilder och beundra videor, men allt detta kommer inte att ersätta liveintryck.

Ämnet för jämn utmatning av ramar till bildskärmen med hjälp av Nvidia G-Sync-teknik hänvisar också till sådana ämnen - enligt textbeskrivningar verkar förändringarna inte så betydande, men under de allra första minuterna av ett 3D-spel på ett system med en Nvidia Geforce grafikkort kopplat till G-Sync -monitor blir det tydligt hur stort ett kvalitativt språng är. Och även om det har gått mer än ett år sedan tillkännagivandet av tekniken, tappar tekniken inte sin relevans, den har fortfarande inga konkurrenter (bland de lösningar som har kommit in på marknaden), och motsvarande bildskärmar fortsätter att produceras.

Nvidia har under ganska lång tid fokuserat på att förbättra användarupplevelsen av Geforce GPU:er för videofilmer i moderna spel genom att göra renderingen smidigare. Du kan komma ihåg Adaptive V-Sync-tekniken, som är en hybrid som kombinerar lägen med V-Sync On respektive V-Sync Off. I de fall när GPU tillhandahåller rendering med en bildhastighet som är lägre än bildskärmens uppdateringsfrekvens inaktiveras synkronisering, och för FPS som överskrider uppdateringsfrekvensen är den aktiverad.

Inte alla problem med jämnhet löstes med adaptiv synkronisering, men det var ändå ett viktigt steg i rätt riktning. Men varför var det nödvändigt att göra något speciella lägen synkronisering och till och med släppa mjukvaru- och hårdvarulösningar? Vad är det för fel med teknik som har funnits i decennier? Idag ska vi visa dig hur Nvidias G-Sync-teknik kan hjälpa till att eliminera alla kända skärmartefakter som rivning, suddiga bilder och ökad fördröjning.

Ser vi långt fram kan vi säga att G-Sync synkroniseringstekniken gör att du kan få en jämn bildhastighet med högsta möjliga prestanda och komfort, vilket är mycket märkbart när du spelar bakom en sådan monitor - detta märks även för en vanlig hemanvändare , och för ivrig spelare kan det innebära en förbättring av reaktionstiden, och samtidigt spelprestationer.

Idag använder de flesta PC-spelare 60Hz-skärmar – de typiska LCD-skärmarna som är de mest populära idag. Följaktligen, både med V-Sync på och av, finns det alltid några nackdelar förknippade med de grundläggande problemen med forntida teknologier, som vi kommer att prata om ytterligare: höga fördröjningar och ryck av FPS med V-Sync på och obehagliga avbrottsbilder när de är avstängda.

Och eftersom förseningar och oregelbundna bildfrekvenser är mer störande och irriterande för spelet, är det sällan någon av spelarna som slår på synkronisering alls. Och även vissa modeller av monitorer med en uppdateringsfrekvens på 120 och 144 Hz som har dykt upp på marknaden kan inte hjälpa till att eliminera problemen helt, de gör dem helt enkelt något mindre märkbara, uppdaterar skärmens innehåll dubbelt så ofta, men alla samma artefakter är närvarande: eftersläpningar och frånvaron av samma bekväma jämnhet.

Och eftersom bildskärmar med G-Sync parat med ett lämpligt Nvidia Geforce-grafikkort kan ge inte bara en hög uppdateringsfrekvens, utan också eliminera alla dessa nackdelar, kan köp av sådana lösningar anses vara ännu viktigare än att ens uppgradera till en kraftfullare GPU . Men låt oss ta reda på det först med varför det överhuvudtaget var nödvändigt att göra något annat än sedan länge kända lösningar - vad är problemet här?

Problem med befintliga videoutgångsmetoder

Teknologier för att visa bilder på en skärm med en fast uppdateringsfrekvens har funnits sedan de dagar då katodstrålerör (CRT) monitorer användes. De flesta läsare bör komma ihåg dem - grymma sådana, som gamla tv-apparater. Dessa tekniker utvecklades ursprungligen för att visa tv-bilder med en fast bildhastighet, men när det gäller enheter för att visa en 3D-bild dynamiskt beräknad på en PC orsakar denna lösning stora problem som ännu inte har lösts.

Även de modernaste LCD-skärmarna har en fast uppdateringsfrekvens på skärmen, även om tekniskt sett ingenting hindrar dem från att ändra bilden när som helst, med vilken frekvens som helst (inom rimliga gränser förstås). Men PC-spelare har länge fått stå ut med en klart ofullständig lösning på problemet med att synkronisera bildhastigheten för 3D-rendering och bildskärmens uppdateringsfrekvens under lång tid med CRT-skärmar. Hittills har det funnits väldigt få alternativ för att visa en bild - två, och båda har nackdelar.

Roten till alla problem ligger i det faktum att med en fast uppdateringsfrekvens för bilden på monitorn renderar grafikkortet varje bildruta för annan tid- detta beror på scenens ständigt föränderliga komplexitet och belastningen på GPU:n. Och renderingstiden för varje bildruta är inte konstant, den ändrar varje bildruta. Det är inte förvånande att det finns synkroniseringsproblem när man försöker visa ett antal bildrutor på skärmen, eftersom vissa av dem tar mycket längre tid att rendera än andra. Som ett resultat visar det sig olika förberedelsetider för varje bildruta: sedan 10 ms, sedan 25 ms, till exempel. Och bildskärmar som fanns innan G-Sync kom kunde visa bildrutor först efter en viss tidsperiod - inte tidigare, inte senare.

Saken kompliceras ytterligare av mängden hårdvaru- och mjukvarukonfigurationer för speldatorer, i kombination med en mycket olika belastning beroende på spel, kvalitetsinställningar, inställningar för videodrivrutiner etc. Som ett resultat är det omöjligt att konfigurera varje spelsystem så att utbildning bedrivs med konstant eller åtminstone inte för olika tid i alla 3D-applikationer och förhållanden - som möjligt på spel konsoler med sin enhetliga hårdvarukonfiguration.

Naturligtvis, till skillnad från konsoler med sina förutsägbara bildåtergivningstider, är PC-spelare fortfarande allvarligt begränsade i sin förmåga att uppnå ett smidigt spel utan märkbara neddragningar och fördröjningar. I ett idealiskt (läs - omöjligt i verkligheten) fall bör bilden på monitorn uppdateras strikt efter att nästa bildruta har beräknats och förberetts av grafikprocessorn:

Som du kan se, i det här hypotetiska exemplet lyckas GPU:n alltid rita en ram före den tid den behöver överföras till monitorn - bildrutetiden är alltid något mindre än tiden mellan informationsuppdateringar på skärmen och GPU:n vilar lite på rasterna. Men i verkligheten, trots allt, är allt helt annorlunda - bildåtergivningstiden är väldigt annorlunda. Föreställ dig om GPU:n inte har tid att rendera ramen på den tilldelade tiden - då måste ramen antingen visas senare, hoppa över en bilduppdatering på monitorn (vertikal synkronisering är aktiverad - V-Sync On), eller för att visa ramar i delar med inaktiverad synkronisering, och sedan på monitorn samtidigt kommer bitar från flera intilliggande ramar att finnas närvarande.

De flesta användare stänger av V-Sync för att få lägre latens och jämnare bildutdata, men den här lösningen introducerar synliga rivningsartefakter. Och med synkronisering aktiverad blir det ingen bildrivning, eftersom ramarna endast visas i sin helhet, men fördröjningen mellan spelarens handling och uppdateringen av bilden på skärmen ökar, och bildutmatningshastigheten visar sig vara mycket ojämn , eftersom grafikprocessorn aldrig ritar ramar strikt i enlighet med bilduppdateringstiden på skärmen.

Detta problem har funnits i många år och stör uppenbarligen komforten när man ser resultatet av 3D-rendering, men tills nyligen brydde sig ingen om att lösa det. Och lösningen är, i teorin, ganska enkel - du behöver bara visa information på skärmen strikt när GPU:n slutar arbeta på nästa bildruta. Men först, låt oss ta en närmare titt på exempel på hur de befintliga skärmteknologierna fungerar, och vilken lösning Nvidia erbjuder oss i sin G-Sync-teknik.

Nackdelar med utdata när synkronisering är inaktiverad

Som vi redan nämnt föredrar de allra flesta spelare att hålla synkroniseringen avstängd (V-Sync Off) för att få visningen av ramar som renderas av GPU:n på skärmen så snabbt som möjligt och med en minimal fördröjning mellan spelarens åtgärd ( tangenttryckningar, muskommandon) och deras visning. För seriösa spelare är detta nödvändigt för att vinna, och för vanliga spelare i det här fallet kommer sensationerna att vara trevligare. Så här ser det schematiskt ut att arbeta med V-Sync inaktiverad:

Det finns inga problem och förseningar med utmatningen av ramar. Men samtidigt som inaktivering av Vsync löser fördröjningsproblemet så mycket som möjligt, vilket ger minimal latens, tillsammans med detta dyker det upp artefakter i bilden - bildrivning när bilden på skärmen består av flera bitar av intilliggande ramar, renderade av GPU:n. Bristen på jämnhet i videosekvensen märks också på grund av ojämnheten i ramarna som kommer från GPU:n till skärmen - bildbrott på olika ställen.

Dessa rivningar resulterar från att visa en bild bestående av två eller fler ramar, renderade på GPU:n under en cykel av uppdatering av information på monitorn. Av flera - när bildfrekvensen överstiger bildskärmens uppdateringsfrekvens, och av de två - när den ungefär motsvarar den. Titta på diagrammet som visas ovan - om innehållet i rambufferten uppdateras i mitten mellan tiderna för visning av information på monitorn, kommer den slutliga bilden på den att förvrängas - en del av informationen i det här fallet tillhör den föregående ram och resten - till den som för närvarande renderas.

Med synkronisering inaktiverad sänds ramar till monitorn utan hänsyn till frekvensen och tiden för dess uppdatering, så de sammanfaller aldrig med monitorns uppdateringsfrekvens. Med andra ord, med V-Sync inaktiverad kommer bildskärmar utan G-Sync-stöd alltid att uppleva sådan rivning.

Det handlar inte bara om det faktum att spelaren är obehaglig att se ränder som rycker över hela skärmen, utan också om att den samtidiga renderingen av delar av olika bildrutor kan felinformera hjärnan, vilket är särskilt märkbart med dynamiska objekt i bilden - spelaren ser delar av objekt som är förskjutna i förhållande till varandra. Du måste stå ut med detta bara för att inaktivera V-Sync ger minimala utmatningsfördröjningar på det här ögonblicket, men långt ifrån den idealiska kvaliteten på en dynamisk bild, som du kan se från följande exempel (ramar i full upplösning är tillgängliga vid klick):

I exemplen ovan, tagna med FCAT-programvaran och hårdvarukomplexet, kan du se till att den verkliga bilden på skärmen kan bestå av delar av flera intilliggande ramar - och ibland ojämnt, när en smal remsa tas från en av bildrutorna , och de intilliggande upptar den återstående (märkbart större) delen av skärmen.

Ännu tydligare är problemen med bildrivning märkbara i dynamiken (om ditt system och/eller webbläsare inte stöder uppspelning av MP4/H.264-videor med en upplösning på 1920 × 1080 pixlar med en uppdateringsfrekvens på 60 FPS, kommer du att måste ladda ner dem och se dem lokalt med hjälp av en mediaspelare med lämpliga funktioner):

Som du kan se, även i dynamik, är obehagliga artefakter i form av bildavbrott lätt märkbara. Låt oss se hur det ser ut schematiskt - i diagrammet, som visar utdatametoden när synkronisering är inaktiverad. I det här fallet skickas ramar till bildskärmen omedelbart efter att grafikprocessorn har slutfört att rendera dem, och bilden visas även om utmatningen av information från den aktuella bildrutan ännu inte har slutförts helt - resten av bufferten hamnar på nästa skärm uppdatera. Det är därför varje bildruta i vårt exempel som visas på bildskärmen består av två ramar som återges på GPU:n - med ett avbrott i bilden på den plats som är markerad med rött.

I det här exemplet dras den första bildrutan (Draw 1) av GPU:n till skärmbufferten snabbare än dess uppdateringstid på 16,7 ms — och innan bilden skickas till monitorn (Scan 0/1). GPU:n börjar omedelbart arbeta på nästa bildruta (Draw 2), som bryter bilden på skärmen, som innehåller ytterligare en halva av föregående bildruta.

Som ett resultat, i många fall, visas en tydligt urskiljbar remsa på bilden - gränsen mellan den partiella visningen av intilliggande ramar. I framtiden upprepas denna process, eftersom GPU:n arbetar på varje bildruta under en annan tid, och utan att synkronisera processen, kommer ramarna från GPU:n och de som visas på skärmen aldrig överensstämma.

För- och nackdelar med vertikal synkronisering

När du aktiverar den traditionella vertikala synkroniseringen (V-Sync On), uppdateras informationen på bildskärmen först när arbetet med ramen är helt klart av GPU:n, vilket eliminerar luckor i bilden, eftersom ramarna visas på skärmen uteslutande som helhet. Men eftersom monitorn uppdaterar innehållet endast med vissa intervall (beroende på egenskaperna hos utenheten), så medför denna bindning redan andra problem.

Majoritet moderna LCD-skärmar uppdatera information med en frekvens på 60 Hz, det vill säga 60 gånger per sekund - ungefär var 16:e millisekund. Och med synkronisering aktiverad är bildutgångstiden strikt bunden till monitorns uppdateringsfrekvens. Men som vi vet är bildåtergivningshastigheten på GPU:n alltid variabel, och renderingstiden för varje bildruta skiljer sig beroende på den ständigt föränderliga komplexiteten i 3D-scenen och kvalitetsinställningar.

Det kan inte alltid vara lika med 16,7 ms, men det blir antingen mindre än detta värde eller mer. När synkronisering är aktiverad slutar GPU:ns arbete med ramar igen tidigare eller senare än när skärmen uppdateras. Om ramen renderades snabbare än detta ögonblick, finns det inga speciella problem - den visuella informationen väntar bara på att skärmens uppdateringstid ska visa hela ramen på skärmen, och GPU:n är inaktiv. Men om ramen inte har tid att rendera inom den tilldelade tiden, måste den vänta på nästa cykel för att uppdatera bilden på monitorn, vilket orsakar en ökning av fördröjningen mellan spelarens handlingar och deras visuella visning på skärmen . I det här fallet visas bilden av den tidigare "gamla" ramen på skärmen igen.

Även om allt detta händer ganska snabbt, är ökningen av latens visuellt lätt märkbar, och inte bara. professionella spelare... Och eftersom bildåtergivningstiden alltid är variabel, orsakar bindningen till bildskärmens uppdateringsfrekvens ryck när en dynamisk bild visas, eftersom bildrutorna antingen visas snabbt (lika med bildskärmens uppdateringsfrekvens) eller två gånger, tre eller fyra gånger långsammare. Låt oss överväga ett schematiskt exempel på sådant arbete:

Illustrationen visar hur ramar visas på monitorn med V-Sync On. Den första bildrutan (Draw 1) renderas av GPU:n snabbare än 16,7 ms, så GPU:n går inte till jobbet med att rita nästa bildruta och bryter inte bilden, som i fallet med V-Sync Off, utan väntar för att den första bilden ska visas helt på monitorn. Och först efter det börjar nästa ram (Draw 2) ritas.

Men arbetet med den andra bilden (ritning 2) tar mer tid än 16,7 ms, därför visas den visuella informationen från föregående bild på skärmen efter utgången, och den visas på skärmen i ytterligare 16,7 ms. Och även efter att grafikprocessorn har slutat arbeta med nästa bildruta, visas den inte på skärmen, eftersom bildskärmen har en fast uppdateringsfrekvens. I allmänhet måste du vänta 33,3 ms på att den andra bilden ska visas, och all denna tid läggs till fördröjningen mellan spelarens handling och slutet av bildrutans visning på monitorn.

Till problemet med tidsfördröjning finns det också en lucka i materialets jämnhet, märkbar av ryckningarna i 3D-animationen. Problemet visas mycket tydligt i en kort video:

Men även de mest kraftfulla GPU:erna i krävande moderna spel kan inte alltid ge en tillräckligt hög bildfrekvens, som överstiger den typiska uppdateringsfrekvensen för monitorer på 60 Hz. Och följaktligen kommer de inte att ge möjligheten till ett bekvämt spel med synkronisering påslagen och frånvaron av problem som bildrivning. Speciellt när det kommer till spel som multiplayer Battlefield 4, mycket krävande Far cry 4 och Assassin's Creed Unity höga upplösningar och maximala spelinställningar.

Det vill säga, den moderna spelaren har lite val - antingen få brist på jämnhet och ökade förseningar, eller nöja sig med ofullständig bildkvalitet med trasiga bitar av ramar. Naturligtvis, i verkligheten, ser allt inte så illa ut, för på något sätt spelade vi hela tiden, eller hur? Men i en tid när de försöker uppnå idealet både vad gäller kvalitet och komfort vill man ha mer. Dessutom har LCD-skärmar en grundläggande teknisk förmåga att visa ramar när grafikprocessorn indikerar det. Det finns lite att göra - att ansluta GPU:n och bildskärmen, och det finns redan en sådan lösning - Nvidia G-Sync-tekniken.

G-Sync-teknik - Löser Nvidias prestandaproblem

Så de flesta moderna spel i versionen med inaktiverad synkronisering orsakar rivning av bilden, och med aktiverat - oregelbundna ramändringar och ökade förseningar. Även vid höga uppdateringsfrekvenser löser inte traditionella bildskärmar dessa problem. Förmodligen har valet mellan två långt ifrån idealiska alternativ för att mata ut ramar i 3D-applikationer genom åren stört Nvidia-anställda så mycket att de bestämde sig för att bli av med problemen genom att ge spelarna ett fundamentalt nytt tillvägagångssätt för att uppdatera information på skärmen.

Skillnaden mellan G-Sync-teknik och befintliga visningsmetoder är att timingen och bildhastigheten i fallet med Nvidia-varianten bestäms av Geforce GPU:n, och den förändras dynamiskt, och inte fixerad, som den var tidigare. Med andra ord, i det här fallet tar GPU:n full kontroll över utdata från ramar - så fort den är klar med nästa bildruta visas den på skärmen, utan förseningar och bildavbrott.

Användande ett sådant samband mellan GPU:n och skärmens specialanpassade hårdvara ger det spelarna den bästa utgångsmetoden - bara perfekt kvalitetsmässigt, utan alla problem vi nämnde ovan. G-Sync ger perfekt mjuka rambyten på monitorn, utan några förseningar, ryck och artefakter som orsakas av visningen av visuell information på skärmen.

Naturligtvis fungerar inte G-Sync magiskt, och för att tekniken ska fungera på bildskärmssidan krävs tillägg av speciell hårdvarulogik i form av ett litet kort levererat av Nvidia.

Företaget samarbetar med bildskärmstillverkare för att inkludera G-Sync-kort i sina spelskärmsmodeller. För vissa modeller finns det till och med ett uppgraderingsalternativ av användarens egna händer, men det här alternativet är dyrare, och det är inte vettigt, eftersom det är lättare att köpa en G-Sync-skärm direkt. Från en PC räcker det att ha något av de moderna Nvidia Geforce-grafikkorten i sin konfiguration, och den installerade G-Sync-optimerade videodrivrutinen - vilken som helst av de färska versionerna duger.

När Nvidia G-Sync-teknik är aktiverad, efter att ha bearbetat nästa bildruta i en 3D-scen, skickar Geforce GPU en speciell signal till G-Sync-kontrollkortet som är inbyggt i monitorn, som talar om för monitorn när bilden ska uppdateras på skärmen . Detta gör att du kan uppnå perfekt jämnhet och lyhördhet när du spelar på en PC - du kan se detta genom att titta på en kort video (alltid med 60 bilder per sekund!):

Låt oss se hur konfigurationen fungerar med den aktiverade G-Sync-tekniken, enligt vårt diagram:

Som du kan se är allt väldigt enkelt. Aktivering av G-Sync binder bildskärmens uppdateringsfrekvens till slutet av renderingen av varje bildruta på GPU:n. GPU:n kontrollerar helt arbetet: så snart den är klar med att rendera ramen visas bilden omedelbart på en G-Sync-kompatibel bildskärm, och som ett resultat är det inte en fast skärmuppdateringsfrekvens, utan en variabel - exakt som GPU-bildhastigheten. Detta eliminerar problem med bildrivning (trots allt innehåller den alltid information från en bildruta), minimerar bildhastighetsryck (skärmen väntar inte längre än att ramen fysiskt bearbetas på GPU) och minskar utmatningsfördröjningar i förhållande till metoden med Vsync aktiverat .

Jag måste säga att spelarna helt klart saknade en sådan lösning, den nya metoden att synkronisera GPU:n och Nvidia G-Sync-skärmen har verkligen en mycket stark effekt på bekvämligheten att spela på en PC - att nästan perfekt jämnhet visas, vilket inte var där tills nu - i vår tid, superkraftiga grafikkort! Sedan tillkännagivandet av G-Sync-tekniken har de gamla metoderna omedelbart blivit en anakronism och uppgraderingen till en G-Sync-monitor som kan variera uppdateringsfrekvens upp till 144 Hz verkar vara ett mycket attraktivt alternativ, vilket gör att du äntligen kan bli av med av problem, fördröjningar och artefakter.

Har G-Sync några nackdelar? Naturligtvis, som vilken teknik som helst. Till exempel har G-Sync en obehaglig begränsning, som är att den ger en mjuk visning av ramar till skärmen med en frekvens på 30 FPS. Och den valda uppdateringsfrekvensen för monitorn i G-Sync-läge ställer in den övre stapeln för uppdateringsfrekvensen för skärmens innehåll. Det vill säga när uppdateringshastigheten är inställd på 60 Hz kommer den maximala jämnheten att tillhandahållas vid en frekvens på 30-60 FPS och vid 144 Hz - från 30 till 144 FPS, men inte mindre än den nedre gränsen. Och med en variabel frekvens (till exempel från 20 till 40 FPS) kommer resultatet inte längre att vara idealiskt, även om det är märkbart bättre än traditionell V-Sync.

Men den största nackdelen med G-Sync är att det är Nvidias egen teknik som konkurrenterna inte har tillgång till. Därför tillkännagav AMD i början av det utgående året en liknande FreeSync-teknik - också bestående av att dynamiskt ändra bildskärmens bildhastighet i enlighet med förberedelsen av ramar från GPU:n. En viktig skillnad är att AMD:s utveckling är öppen och inte kräver ytterligare hårdvarulösningar i form av specialiserade bildskärmar, eftersom FreeSync har konverterats till Adaptive-Sync, som blivit en valfri del av DisplayPort 1.2a-standarden från den ökända Video Electronics Standards Association (VESA). Det visar sig att AMD skickligt kommer att använda temat som utvecklats av en konkurrent för sin egen fördel, eftersom utan utseendet och populariseringen av G-Sync skulle de inte ha någon FreeSync, som vi tror.

Intressant nog är Adaptive-Sync också en del av VESAs inbyggda DisplayPort-standard (eDP) och används redan i många bildskärmskomponenter som använder eDP för signalöverföring. En annan skillnad mot G-Sync är att VESA-medlemmar kan använda Adaptive-Sync utan att behöva betala någonting. Det är dock mycket troligt att Nvidia även kommer att stödja Adaptive-Sync i framtiden som en del av DisplayPort 1.2a-standarden, eftersom sådant stöd inte kommer att kräva mycket av dem. Men företaget kommer inte heller att tacka nej till G-Sync, eftersom det anser att sina egna lösningar är prioriterade.

De första bildskärmarna med stöd för Adaptive-Sync bör dyka upp under första kvartalet 2015, de kommer inte bara att ha DisplayPort 1.2a-portar, utan även specialstöd för Adaptive-Sync (alla DisplayPort 1.2a-kompatibla bildskärmar kommer inte att kunna skryta med detta). Så, Samsung i mars 2015 planerar att lansera serien av monitorer Samsung UD590 (23,6 och 28 tum) och UE850 (23,6, 27 och 31,5 tum) med stöd för UltraHD-upplösning och Adaptive-Sync-teknik. AMD hävdar att bildskärmar med stöd för denna teknik kommer att vara upp till 100 $ billigare än liknande enheter med stöd för G-Sync, men det är svårt att jämföra dem, eftersom alla bildskärmar är olika och kommer ut vid olika tidpunkter. Dessutom finns det redan inte så dyra G-Sync-modeller på marknaden.

Visuell skillnad och subjektiva intryck

Ovan beskrev vi teorin, och nu är det dags att visa allt tydligt och beskriva dina känslor. Vi har testat Nvidia G-Sync-teknik i praktiken i flera 3D-applikationer med hjälp av Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra grafikkort och Asus PG278Q-skärm med G-Sync-teknik. Det finns flera modeller av bildskärmar på marknaden som stödjer G-Sync från olika tillverkare: Asus, Acer, BenQ, AOC och andra, och för monitorn av Asus VG248QE-modellen kan du till och med köpa ett uppgraderingspaket för att stödja G-Sync på egen hand.

Det yngsta grafikkortet som använder G-Sync-teknik är Geforce GTX 650 Ti, med ett extremt viktigt krav på en DisplayPort-kontakt ombord. Av de andra systemkraven noterar vi åtminstone operativsystemet Microsoft Windows 7 rekommenderas användning av en bra DisplayPort 1.2-kabel och användning av en kvalitetsmus med hög känslighet och pollingfrekvens. G-Sync-teknik fungerar med alla 3D-applikationer i helskärmsläge som använder OpenGL och Direct3D grafik API:er när den startas i operationssalar Windows-system 7 och 8.1.

Alla moderna drivrutiner är lämpliga för arbete, vilket - G-Sync har stötts av alla förare i företaget i mer än ett år. Om du har alla nödvändiga komponenter behöver du bara aktivera G-Sync i drivrutinerna, om du inte redan har gjort det, och tekniken kommer att fungera i alla helskärmsapplikationer - och bara i dem, baserat på själva principen av tekniken.

För att aktivera G-Sync-teknik för helskärmsapplikationer och få ut det mesta behagligt resultat, måste du aktivera 144Hz uppdateringsfrekvens i Nvidias kontrollpanel eller operativsystems skrivbordsinställningar. Sedan måste du se till att användningen av teknik är tillåten på lämplig sida "Konfigurera G-Sync" ...

Och även - välj lämplig post på sidan "Hantera 3D-parametrar" i parametern "Vertikal synkroniseringspuls" för de globala 3D-parametrarna. Där kan du också inaktivera användningen av G-Sync-tekniken för teständamål eller vid eventuella problem (blickar framåt - under vår testning hittade vi inga).

G-Sync-tekniken fungerar på alla upplösningar som stöds av bildskärmar, upp till UltraHD, men i vårt fall använde vi den ursprungliga upplösningen på 2560 × 1440 pixlar vid 144 Hz. I våra jämförelser med det nuvarande tillståndet använde vi en uppdateringsfrekvens på 60 Hz med G-Sync inaktiverad för att efterlikna beteendet hos typiska icke-G-Sync-skärmar som de flesta spelare har. De flesta av dem använder Full HD-skärmar som klarar av ett maximalt 60Hz-läge.

Var noga med att nämna att även om med G-Sync aktiverat kommer skärmuppdateringen att vara vid den idealiska frekvensen - när grafikprocessorn "vill ha" det, kommer det optimala läget fortfarande att renderas med en bildhastighet på cirka 40-60 FPS - detta är den mest lämpliga bildhastigheten för moderna spel, inte för liten för att nå den nedre gränsen på 30 FPS, men kräver inte heller lägre inställningar. Det är förresten exakt den frekvens som Nvidias Geforce Experience-program strävar efter, och tillhandahåller lämpliga inställningar för populära spel i programvaran med samma namn som följer med drivrutinerna.

Förutom spel testade vi även en specialiserad testapplikation från Nvidia -. Denna applikation visar en lättanvänd pendel 3D-scen för att bedöma jämnheten och kvaliteten, låter dig simulera olika bildhastigheter och välja visningsläge: V-Sync Off / On och G-Sync. Med denna testmjukvara är det mycket enkelt att visa skillnaden mellan olika synklägen - till exempel mellan V-Sync On och G-Sync:

Pendulum Demo App låter dig testa olika sätt synkronisering i olika förutsättningar, simulerar den en exakt bildhastighet på 60 FPS för att jämföra V-Sync och G-Sync under idealiska förhållanden för den äldre synkroniseringsmetoden - i det här läget bör det inte finnas någon skillnad mellan metoderna. Men 40-50 FPS-läget sätter V-Sync On i en obekväm position när fördröjningar och ojämna bildändringar är synliga för blotta ögat, eftersom bildåtergivningstiden överskrider uppdateringsperioden vid 60 Hz. När du slår på G-Sync blir allt perfekt.

När det kommer till att jämföra lägen med V-Sync av och G-Sync på, hjälper Nvidias app också att se skillnaden här – vid bildhastigheter mellan 40 och 60 FPS syns bildavbrott tydligt, även om det är färre fördröjningar än med V -Synkronisera på. Och till och med en ojämn videosekvens angående G-Sync-läget märks, även om det i teorin inte borde vara det - kanske är det så här hjärnans uppfattning om "sönderrivna" ramar påverkar.

Tja, med G-Sync aktiverat ger alla lägen i testapplikationen (konstant bildhastighet eller variabel - det spelar ingen roll) alltid den jämnaste videosekvensen. Och i spel är alla problem med det traditionella tillvägagångssättet för att uppdatera information på en bildskärm med en fast uppdateringsfrekvens ibland märkbara nästan ännu mer - i det här fallet kan du tydligt bedöma skillnaden mellan alla tre lägen med exemplet med StarCraft II ( tittar på en tidigare sparad inspelning):

Om ditt system och din webbläsare stöder uppspelning av videoformatet MP4 / H.264 med en frekvens på 60 FPS, kommer du tydligt att se att i det inaktiverade synkroniseringsläget finns det tydliga revor i bilden, när V-Sync är påslagen, ryck och oegentligheter i videon observeras. Allt detta försvinner när du slår på Nvidia G-Sync, där det inte finns några artefakter i bilden, ingen ökning av förseningar eller en "raggad" bildhastighet.

Naturligtvis är G-Sync inte en trollstav, och från förseningar och frysningar som inte orsakas av processen att visa ramar till en bildskärm med en fast uppdateringsfrekvens, denna teknik kommer inte att lindra. Om spelet i sig har problem med jämnheten i frame-output och stora ryck i FPS orsakade av laddning av texturer, bearbetning av data på processorn, suboptimalt arbete med videominne, bristande kodoptimering, etc., så kommer de att förbli på plats. Dessutom kommer de att bli ännu mer märkbara, eftersom utmatningen av resten av ramarna kommer att vara perfekt jämn. Men i praktiken, på kraftfulla system, är problem inte särskilt vanliga, och G-Sync förbättrar verkligen uppfattningen av dynamisk film.

Eftersom Nvidias nya utdatateknik påverkar hela utdatapipelinen kan den teoretiskt orsaka artefakter och jitter i bildhastigheter, speciellt om spelet artificiellt begränsar FPS vid någon punkt. Förmodligen är sådana fall, om det finns, så sällsynta att vi inte ens märkte dem. Men de noterade en tydlig förbättring av komforten när man spelar – när man spelar på en bildskärm med G-Sync-teknik aktiverad verkar det som om datorn har blivit så kraftfull att den klarar en konstant bildhastighet på minst 60 FPS utan några neddragningar.

Känslan man får när man spelar med en G-Sync-skärm är väldigt svår att beskriva med ord. Skillnaden är särskilt märkbar vid 40-60 FPS – bildfrekvensen som man ofta hittar i krävande moderna spel. Skillnaden jämfört med konventionella bildskärmar är helt enkelt fantastisk, och vi kommer att försöka inte bara sätta ord på det och visa det i videoexempel, utan också visa bildhastighetsgraferna som erhålls med olika visningslägen.

I spel av genrer som realtidsstrategi och liknande, som StarCraft II, League of Legends, DotA 2, etc., är fördelarna med G-Sync-teknik tydligt synliga, som du kan se från exemplet i videon ovan. . Dessutom kräver sådana spel alltid snabba åtgärder som inte tolererar förseningar och oregelbundna bildhastigheter, och mjuk rullning spelar en ganska viktig roll för komforten, vilket i hög grad försvåras av bildrivning när V-Sync Off, fördröjningar och laggar när V-Sync På. Så G-Sync-tekniken är idealisk för den här typen av spel.

Förstapersonsskjutare som Crysis 3 och Far Cry 4 är ännu vanligare, de är också mycket krävande på datorresurser, och vid högkvalitativa inställningar får spelare ofta bildhastigheter på ungefär 30-60 FPS - perfekt för användning av G-Sync , vilket verkligen förbättrar komforten när man spelar under sådana förhållanden. Den traditionella vertikala synkroniseringsmetoden tvingar dig ofta att mata ut ramar med en frekvens på endast 30 FPS, vilket ökar fördröjningar och ryck.

Detsamma gäller för tredjepersonsspel som Batman, Assassin's Creed och Tomb Raider. Dessa spel använder också den senaste grafikteknologin och kräver ganska kraftfulla GPU:er för att uppnå höga bildhastigheter. På maximala inställningar i dessa spel och inaktiverar V-Sync, erhålls ofta FPS i storleksordningen 30–90, vilket orsakar obehaglig rivning av bilden. Aktivering av V-Sync hjälper bara i vissa scener med mindre resurskrav, och bildhastigheten hoppar från 30 till 60 steg, vilket orsakar nedgångar och ryck. Och att aktivera G-Sync löser alla dessa problem, och detta är helt märkbart i praktiken.

Öva provresultat

I det här avsnittet kommer vi att titta på effekten av G-Sync och V-Sync på bildhastighet - du kan tydligt förstå hur de fungerar utifrån prestandagraferna. olika tekniker... Under testningen testade vi flera spel, men alla är inte bekväma att visa skillnaden mellan V-Sync och G-Sync - vissa spelriktmärken tillåter inte att tvinga V-Sync, andra spel har inte ett bekvämt verktyg för att spela det exakta spelet sekvens (de flesta moderna spel, tyvärr), andra körs på vårt testsystem antingen för snabbt eller inom smala bildfrekvenser.

Så vi bestämde oss för Just Cause 2 med maximala inställningar, samt ett par riktmärken: Unigine Heaven och Unigine Valley - också med maximala kvalitetsinställningar. Bildhastigheten i dessa applikationer varierar över ett ganska brett intervall, vilket är bekvämt för vårt syfte - att visa vad som händer med utdata från ramar under olika förhållanden.

Tyvärr har vi för närvarande inte FCAT-programvaran och hårdvarusystemet i bruk, och vi kommer inte att kunna visa riktiga FPS-diagram och inspelade videor i olika lägen. Istället testade vi den andra genomsnittliga och momentana bildhastigheten med ett välkänt verktyg vid 60 och 120 Hz bildskärmsuppdateringsfrekvenser med hjälp av V-Sync On, V-Sync Off skärmuppdateringsmetoder, Adaptive V-Sync och med G-Sync-teknik vid 144Hz för att visa skillnaden mellan ny teknologi och nuvarande 60Hz-skärmar med traditionell vertikal synk.

G-Sync vs V-Sync På

Vi börjar vår utforskning genom att jämföra V-Sync On kontra G-Sync – det här är den mest avslöjande jämförelsen som kommer att visa skillnaden mellan rivningsfria metoder. Först kommer vi att titta på Heaven-testapplikationen vid maximala kvalitetsinställningar i en upplösning på 2560 × 1440 pixlar (genom att klicka på miniatyrerna öppnas graferna i full upplösning):

Som du kan se i grafen är bildhastigheten med G-Sync aktiverad och utan synkronisering praktiskt taget densamma, förutom en frekvens högre än 60 FPS. Men FPS i läget med den vertikala synkroniseringsmetoden aktiverad är märkbart annorlunda, eftersom bildhastigheten i den kan vara lägre eller lika med 60 FPS och en multipel av heltal: 1, 2, 3, 4, 5, 6 ... , eftersom monitorn ibland måste visa samma föregående bildruta under flera uppdateringsperioder (två, tre, fyra och så vidare). Det vill säga de möjliga "stegen" för bildhastigheten vid V-Sync On och 60 Hz: 60, 30, 20, 15, 12, 10, ... FPS.

Denna stegning är tydligt synlig på den röda linjen i grafen - under löpningen detta test, bildhastigheten var ofta 20 eller 30 FPS, och mycket mindre ofta - 60 FPS. Även om med G-Sync och V-Sync Off (Ingen Sync), var det ofta i ett bredare intervall: 35-50 FPS. Med V-Sync aktiverad är en sådan utgångshastighet inte möjlig, så monitorn visar alltid 30 FPS i sådana fall - vilket begränsar prestandan och lägger till fördröjningar till den totala utgångstiden.

Det bör noteras att grafen ovan inte visar den momentana bildhastigheten, utan genomsnittliga värden inom en sekund, men i verkligheten kan FPS "hoppa" mycket mer - nästan varje bildruta, vilket orsakar obehagliga oregelbundenheter och fördröjningar. För att se detta tydligt presenterar vi ett par grafer med momentan FPS - mer exakt med grafer över renderingstiden för varje bildruta i millisekunder. Första exemplet (linjerna är något förskjutna i förhållande till varandra, endast ungefärligt beteende i varje läge visas):

Som du kan se, i det här exemplet, ändras bildhastigheten för G-Sync mer eller mindre smidigt, och med V-Sync On - i steg (det finns enstaka språng i renderingstiden i båda fallen - är detta normalt ). Med Vsync aktiverat kan renderings- och frame-utgångstider vara 16,7 ms; 33,3 ms; 50 ms, som visas i grafen. Sett till FPS motsvarar detta 60, 30 och 20 bilder per sekund. Dessutom finns det ingen speciell skillnad mellan beteendet hos de två linjerna, det finns toppar i båda fallen. Tänk på en annan betydande tidsperiod:

I det här fallet är det uppenbart att "kasta" frame-renderingstiden, och med dem FPS i fallet med den aktiverade vertikala synkroniseringen. Titta, med V-Sync On sker det en abrupt förändring av bildåtergivningstiden från 16,7 ms (60 FPS) till 33,3 ms (30 FPS) och vice versa - i verkligheten orsakar detta den mycket obekväma oregelbundenhet och tydligt synliga ryck i videosekvens. Jämnheten i ramändringen i fallet med G-Sync är mycket högre och det kommer att vara mycket bekvämare att spela i det här läget.

Låt oss ta en titt på FPS-grafen i den andra testapplikationen - Unigine Valley:

I detta riktmärke markerar vi ungefär samma som i himlen. Bildhastigheterna i lägena G-Sync och V-Sync Off är nästan desamma (förutom en topp över 60 Hz), och när V-Sync är på, orsakar det en tydligt förskjuten förändring i FPS, som oftast visar 30 FPS , ibland sjunka till 20 FPS och stiga till 60 FPS - Typiskt beteende för den här metoden, vilket orsakar fördröjning, ryckningar och ojämna bilder.

I det här underavsnittet återstår det för oss att överväga ett segment från det inbyggda testet av Just Cause 2-spelet:

Detta spel visar perfekt alla brister i den föråldrade V-Sync On-synkroniseringsmetoden! Med en variabel bildhastighet från 40 till 60-70 FPS sammanfaller G-Sync och V-Sync Off-linjerna nästan, men bildhastigheten med V-Sync On når 60 FPS endast under korta intervaller. Det vill säga, med GPU:ns verkliga möjligheter att spela i 40-55 FPS kommer spelaren att nöja sig med endast 30 FPS.

Dessutom, i den sektion av grafen där den röda linjen hoppar från 30 till 40 FPS, i verkligheten, när du tittar på bilden, finns det en tydlig ojämnhet i bildhastigheten - den hoppar från 60 till 30 nästan varje bildruta, vilket tydligt gör inte lägga till jämnhet och komfort när du spelar. Men kanske Vsync kommer att klara sig bättre med en uppdateringsfrekvens på 120Hz?

G-Sync vs V-Sync 60/120 Hz

Låt oss ta en titt på de två V-Sync On-lägena vid 60 och 120 Hz uppdateringsfrekvenser, och jämföra dem med V-Sync Off (som vi bestämt tidigare, denna linje är nästan identisk med G-Sync). Vid en uppdateringshastighet på 120 Hz läggs fler värden till de redan kända FPS-"stegen": 120, 40, 24, 17 FPS, etc., vilket kan göra grafen mindre stegad. Låt oss ta en titt på bildfrekvensen i Heaven benchmark:

Märkbart, 120Hz uppdateringsfrekvens hjälper V-Sync On att uppnå bättre prestanda och jämnare bildhastigheter. I de fall där 20 FPS observeras på grafen vid 60 Hz, ger 120 Hz-läget ett mellanvärde på minst 24 FPS. Och 40 FPS istället för 30 FPS på grafen syns tydligt. Men det finns inte färre steg, och ännu fler, så att bildhastigheten vid 120 Hz uppdateras, även om den ändras med en mindre mängd, men den gör det oftare, vilket också negativt påverkar den totala jämnheten.

I Valley benchmark är det färre ändringar, eftersom den genomsnittliga bildhastigheten är närmast 30 FPS-stoppet som är tillgängligt för båda lägena: med en uppdateringsfrekvens på 60 och 120 Hz. Sync Off ger jämnare bildhastigheter, men med visuella artefakter och V-Sync On-lägen visar ojämna linjer igen. I det här underavsnittet återstår det för oss att titta på Just Cause 2-spelet.

Och återigen kan vi tydligt se hur felaktig vertikal synkronisering är, vilket inte ger en jämn bildändring. Även byte till 120 Hz uppdateringsfrekvens ger V-Sync On-läget bara några extra "steg" av FPS - bildhastigheten hoppar fram och tillbaka från ett steg till ett annat har inte gått någonstans - allt detta är mycket obehagligt när du tittar på animerade 3D-scener Du kan ta vårt ord för det eller titta på videoexemplen ovan igen.

Effekt av utdatametoden på genomsnittlig bildhastighet

Och vad händer med den genomsnittliga bildhastigheten när alla dessa synklägen är påslagna, hur påverkar V-Sync och G-Sync den genomsnittliga prestandan? Du kan grovt uppskatta hastighetsförlusten även från FPS-diagrammen som visas ovan, men vi kommer också att ge de genomsnittliga bildhastigheter vi fick under testningen. Den första kommer återigen att vara Unigine Heaven:

Indikatorerna i lägena Adaptive V-Sync och V-Sync Off är praktiskt taget desamma - trots allt, över 60 FPS, ökar hastigheten knappt. Det är logiskt att inkluderingen av V-Sync leder till en minskning av den genomsnittliga bildhastigheten, eftersom i detta läge används stegvisa FPS-indikatorer. Vid 60Hz sjönk den genomsnittliga bildhastigheten med mer än en fjärdedel, och att slå på 120Hz gav bara hälften av den genomsnittliga FPS-förlusten.

Det mest intressanta för oss är hur mycket den genomsnittliga bildhastigheten sjunker i G-Sync-läge. Av någon anledning sänks hastigheten över 60 FPS, även om 144 Hz-läget var inställt på monitorn, därför visade sig hastigheten när G-Sync var aktiverad vara något lägre än läget med inaktiverad synkronisering. Generellt sett kan vi anta att det inte finns några förluster alls, och de kan absolut inte jämföras med bristen på hastighet med V-Sync On. Tänk på det andra riktmärket, Valley.

I det här fallet minskade minskningen av den genomsnittliga renderingshastigheten i lägen med V-Sync aktiverat, eftersom bildhastigheten under hela testet var nära 30 FPS - ett av frekvensstegen för V-Sync i båda lägena: 60 och 120 Hz. Tja, av uppenbara skäl var förlusterna i det andra fallet något lägre.

När G-Sync aktiverades visade sig den genomsnittliga bildhastigheten återigen vara lägre än den som noterades i det inaktiverade synkroniseringsläget, allt av samma anledning - vilket aktiverade G-Sync "stackade" FPS-värden över 60. Men skillnaden är liten, och det nya Nvidia-läget ger en märkbart högre hastighet än när vertikal synkronisering är på. Låt oss ta en titt på det sista diagrammet - den genomsnittliga bildfrekvensen i spelet Just Cause 2:

När det gäller detta spel drabbades V-Sync On-läget betydligt mer än i testapplikationerna på Unigine-motorn. Den genomsnittliga bildhastigheten i det här läget vid 60 Hz är mer än en och en halv gånger lägre än när synkronisering alls är inaktiverad! Införandet av en uppdateringsfrekvens på 120 Hz förbättrar situationen avsevärt, men ändå låter G-Sync dig uppnå märkbart högre prestanda även i genomsnittliga FPS-tal, för att inte tala om spelets bekvämlighet, som nu inte bara kan uppskattas med siffror - du måste se det med dina egna ögon.

Så i det här avsnittet fick vi reda på att G-Sync-tekniken ger en bildhastighet nära läget med synkroniseringen avstängd, och dess inkludering har nästan ingen effekt på prestandan. Till skillnad från vertikal synkronisering ändrar V-Sync, när den är på, bildhastigheten i steg, och hoppar ofta från ett steg till ett annat, vilket orsakar ojämna rörelser när en animerad serie bildrutor visas och påverkar komforten i 3D-spel negativt.

Med andra ord indikerar både våra subjektiva intryck och testresultat att Nvidias G-Sync-teknik verkligen förändrar den visuella komforten i 3D-spel till det bättre. Den nya metoden saknar både grafiska artefakter i form av rivning av en bild som består av flera intilliggande ramar, som vi ser i läget med V-Sync inaktiverat, så det finns inga problem med smidig visning av ramar till monitorn och en ökning av utgångsfördröjningar, som i V-Sync-läget.

Slutsats

Med alla svårigheterna med att objektivt mäta jämnheten hos videoutgången, vill jag först uttrycka en subjektiv bedömning. Vi var ganska imponerade av den bekväma spelupplevelsen på Nvidia Geforce och Asus G-Sync-skärm. Även en engångs "live"-demonstration av G-Sync gör verkligen ett starkt intryck med mjukheten i bildbytet, och efter ett långt försök med denna teknik blir det väldigt trist att fortsätta spela på monitorn med de gamla metoderna. visar bilder på skärmen.

Kanske kan G-Sync anses vara den största förändringen i processen att visa visuell information på skärmen på länge - äntligen såg vi något riktigt nytt i samband med skärmar och GPU:er, vilket direkt påverkar bekvämligheten av 3D-grafikuppfattning, och jämn och så märkbar. Och innan tillkännagivandet av G-Sync-teknik av Nvidia vi har varit bundna till äldre standarder för bildproduktion i flera år, med rötter i kraven från TV- och filmindustrin.

Naturligtvis skulle jag vilja få sådana funktioner ännu tidigare, men nu är en bra tidpunkt för implementeringen, eftersom i många krävande 3D-spel med maximala inställningar ger toppmoderna grafikkort en sådan bildhastighet med fördelarna med att aktivera G-Sync blir maximal. Och innan tekniken från Nvidia kom, "dödades" den realism som uppnåddes i spel helt enkelt långt ifrån de bästa sätten att uppdatera bilden på skärmen, vilket orsakade bildrivning, ökade förseningar och ryck i bildhastigheten. G-Sync-teknik, å andra sidan, låter dig bli av med dessa problem genom att likställa bildhastigheten till skärmen med renderingshastigheten för GPU:n (om än med vissa begränsningar) - denna process är nu ansvarig för själva GPU:n .

Vi har inte träffat en enda person som provat G-Sync i arbetet och varit missnöjd med denna teknik. De första lyckliga personerna som testade tekniken vid ett Nvidia-evenemang i höstas var överväldigande entusiastiska. Med stöd av specialiserade pressjournalister och spelutvecklare (John Carmack, Tim Sweeney och Johan Andersson) gav de också exklusivt positiva recensioner ny utmatningsmetod. Till vilket vi nu ansluter oss - efter flera dagars användning av en monitor med G-Sync vill jag inte återgå till gamla enheter med sedan länge föråldrade synkroniseringsmetoder. Ah, om urvalet av monitorer med G-Sync var större, och de inte skulle vara utrustade enbart med TN-matriser ...

Tja, av nackdelarna med tekniken från Nvidia kan vi notera att den fungerar med en bildhastighet på minst 30 FPS, vilket kan anses vara en irriterande nackdel - det skulle vara bättre om bilden skulle visas tydligt även vid 20- 25 FPS efter dess förberedelse på GPU ... Men den största nackdelen med tekniken är att G-Sync är företagets egen lösning, som inte används av andra GPU-tillverkare: AMD och Intel. Du kan också förstå Nvidia, eftersom de spenderade resurser på utveckling och implementering av tekniken och kom överens med bildskärmstillverkare om att stödja den med en önskan att tjäna pengar. Egentligen fungerade de återigen som motorn för tekniska framsteg, trots den till synes många förmenta vinstgirigheten. Låt oss avslöja den stora "hemligheten": vinst är huvudmålet för alla kommersiella företag, och Nvidia är inget undantag.

Fortfarande är det mer sannolikt att framtiden kommer att vara mer mångsidiga öppna standarder som liknar G-Sync i huvudsak, som Adaptive-Sync, en valfri funktion inom DisplayPort 1.2a. Men utseendet och distributionen av bildskärmar med sådant stöd kommer att behöva vänta ytterligare en tid - någonstans till mitten av nästa år, och G-Sync-skärmar från olika företag (Asus, Acer, BenQ, AOC och andra) har redan varit till försäljning i flera månader men inte för billigt. Ingenting hindrar Nvidia från att stödja Adaptive-Sync i framtiden, även om de inte officiellt kommenterade detta ämne. Låt oss hoppas att Geforce-fans inte bara nu har en fungerande lösning i form av G-Sync, utan i framtiden kommer det även att vara möjligt att använda en dynamisk uppdateringsfrekvens inom den allmänt accepterade standarden.

Bland andra nackdelar med Nvidia G-Sync-teknik för användare, noterar vi att dess stöd från bildskärmen kostar tillverkaren ett visst belopp, vilket leder till en ökning av detaljhandelspriset i förhållande till standardskärmar. Men bland G-Sync-skärmar finns det modeller av olika priser, inklusive inte för dyra. Huvudsaken är att de redan finns till försäljning, och varje spelare kan få maximal komfort när de spelar just nu, och än så länge bara när de använder Nvidia Geforce-grafikkort - företaget garanterar denna teknik.

De bästa bildskärmarna för spel | Modeller med Nvidia G-Sync-teknik

Teknik med variabel eller adaptiv skärmuppdateringshastighet finns i två varianter: AMD FreeSync och Nvidia G-Sync. De gör samma sak - de sänker uppdateringsfrekvensen för källan (grafikkortet) och skärmen för att förhindra irriterande rambrott under snabba spelrörelser. FreeSync är en del av DisplayPort-specifikationen och G-Sync kräver ytterligare hårdvara, licensierad av Nvidia. Implementeringen av G-Sync lägger till cirka 200 $ till priset på bildskärmen. Om du redan har en modern GeForce grafikkort, valet är självklart. Om du fortfarande är osäker bör du veta att G-Sync har en fördel. När bildhastigheten faller under G-Sync-tröskeln, det vill säga 40 fps, dupliceras bildrutor för att förhindra att bilden rivs sönder. FreeSync har inte den här funktionen.


Pivottabell


Modell AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Kategori FHD FHD QHD QHD
Bästa pris i RF, RUB 24300 28990 31000 58100
Panel / bakgrundsbelysning typ TN / W-LED TN / W-LED kant array TN / W-LED kant array AHVA / W-LED kant array
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Krökningsradie Nej Nej Nej Nej
1920x1080 @ 144Hz 1920x1080 @ 144Hz, 180Hz överklockad 2560x1440 @ 144Hz, 165Hz överklockad 2560x1440 @ 165Hz
FreeSync-intervall Nej Nej Nej Nej
Färgdjup/omfång 8-bitars (6-bitars med FRC) / sRGB 8-bitars/sRGB 8-bitars/sRGB 8-bitars/sRGB
Svarstid (GTG), ms 1 1 1 4
Ljusstyrka, cd/m2 350 350 350 350
Högtalare Nej Nej Nej (2) 2W
Videoingångar (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Ljudkontakter Nej (1) 3,5 mm hörlursutgång (1) 3,5 mm stereo in, (1) 3,5 mm hörlursutgång (1) 3,5 mm hörlursutgång
USB v3.0: (1) in, (2) ut; v2.0: (2) avslutas v3.0: (1) in, (2) ut v3.0: (1) in, (4) ut v3.0: (1) in, (2) ut
Strömförbrukning, W 40 typiska 65 max. 33 typ. 90 max, 0,5 standby
559 x 391-517 x 237 562x418-538x238 541x363x180 620x553x238
Paneltjocklek, mm 50 70 52 66
Rambredd, mm 16-26 11 topp/sida: 6, botten: 15 8-12
Vikt (kg 6,5 6,6 5,8 7
Garanti 3 år 3 år 3 år 3 år

Modell Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTM
Kategori UHD UHD WQHD QHD
Bästa pris i RF, RUB 43900 62000 102000 58000
Panel / bakgrundsbelysning typ AHVA / W-LED kant array IPS / W-LED kant array AH-IPS / W-LED kantuppsättning AMVA / W-LED, kantmatris
Skärmdiagonal/bildförhållande 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Krökningsradie Nej Nej 3800 mm 1800 mm
Maximal upplösning/frekvens förnyelse 3840x2160 @ 60Hz 3840x2160 @ 60Hz 3440x1440 @ 75Hz, 100Hz överklockad 2560x1080 @ 144Hz, 200Hz överklockad
FreeSync-intervall Nej Nej Nej 8-bitars/sRGB
Färgdjup/omfång 10-bitars/sRGB 10-bitars/sRGB 10-bitars/sRGB 10-bitars/sRGB
Svarstid (GTG), ms 4 4 5 4
Ljusstyrka, cd/m2 300 350 300 300
Högtalare (2) 2W DTS (2) 2W DTS (2) 2W (2) 3W DTS
Videoingångar (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Ljudkontakter (1) 3,5 mm hörlursutgång (1) 3,5 mm hörlursutgång (1) 3,5 mm hörlursutgång (1) 3,5 mm hörlursutgång
USB v3.0: (1) in, (4) ut v3.0: (1) in, (4) ut v3.0: (1) in, (4) ut v3.0: (1) in, (3) ut
Strömförbrukning, W 71,5 typiskt 56 typ. 100 max. 34W @ 200 nits
Mått LxHxB (med bas), mm 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Paneltjocklek, mm 63 62 73 118
Rambredd, mm topp/sida: 8, botten: 22 topp/sida: 13, botten: 20 topp/sida: 12, botten: 24 topp/sida: 12, botten: 20
Vikt (kg 7 11,5 11,2 9,7
Garanti 3 år 3 år 3 år 3 år

AOC G2460PG - FHD 24 tum


  • Bästa pris i Ryssland: 24 300 RUB

FÖRDELAR

  • Utmärkt G-Sync implementering
  • Uppdateringshastighet 144 Hz
  • Undertryckning av rörelseoskärpa ULMB
  • Hög byggkvalitet
  • I hög grad hög kvalitet färgåtergivning och gråskala

BEGRÄNSNINGAR

  • Ej standardsortiment
  • Otillräcklig ljusstyrka för optimal ULMB-prestanda
  • Ingen dricks

DOM

Medan G-Sync förblir ett premium och dyrt alternativ, är AOC G2460PG den första monitorn i detta segment som riktar sig till konsumenten med en relativt liten budget. Det kostar ungefär halva priset av Asus ROG Swift, så du kan spara lite, eller installera två skärmar på ditt skrivbord samtidigt.

Asus RoG PG248Q - FHD 24 tum


  • Bästa pris i Ryssland: 28 990 RUB

FÖRDELAR

  • G-Sync
  • 180 Hz
  • Låg latens
  • Lyhördhet
  • Kalibrerad färgnoggrannhet
  • Elegant utseende
  • Bygg kvalité

BEGRÄNSNINGAR

  • För att få den bästa bilden krävs justeringar
  • Kontrast
  • Dyr

DOM

PG248Q ser ut som en exotisk sportbil - dyr och opraktisk att använda. Men om du ställer in rätt inställningar under installationen får du en utmärkt spelupplevelse. När det gäller smidighet och lyhördhet är denna monitor kanske den bästa vi har testat hittills. Det är värt pengarna och tiden. Högt rekommenderad.

Dell S2417DG


  • Bästa pris i Ryssland: 31 000 RUB

    FÖRDELAR

    • Utmärkt rörelsebehandlingskvalitet
    • Färgtrohet vid fabriksinställningar
    • QHD-upplösning
    • Uppdateringshastighet 165 Hz
    • Spelfunktioner
    • Ram 6 mm

    BEGRÄNSNINGAR

    • Kontrast
    • Gammakurvans noggrannhet
    • ULMB minskar ljuseffekten och kontrasten
    • Betraktningsvinklar

    DOM

    Hade Dell åtgärdat gammaproblemen vi stötte på i våra tester, skulle S2417DG ha fått vårt Editor's Choice-utmärkelse. Monitorn överför rörelser otroligt smidigt, helt utan spöken, skakningar och tårar - du kan inte ta blicken ifrån dig. Fördelarna med ULMB-funktionen är försumbara, men ändå närvarande. Det är inte den billigaste 24-tums spelskärmen, men den överträffar dyrare konkurrenter och förtjänar en plats på listan.

    Asus RoG Swift PG279Q - QHD 27 tum


    • Bästa pris i Ryssland: 58 100 RUB

    FÖRDELAR

    • Stabil drift vid 165 Hz
    • G-Sync
    • Ljus och skarp bild
    • Mättad färg
    • GamePlus
    • Joystick för OSD
    • Snyggt utseende
    • Hög byggkvalitet

    BEGRÄNSNINGAR

    • Betydande minskning av ljusflödet i ULMB-läge
    • För prestation bästa kvalitet bilden behöver kalibreras
    • Dyr

    DOM

    Asus nya tillskott till ROG-sortimentet är inte perfekt, men definitivt värt en titt. PG279Q har allt en entusiast behöver, inklusive en skarp och ljus IPS-panel, 165Hz uppdateringsfrekvens och G-Sync. Denna bildskärm är inte billig, men vi har inte hört talas om några ångra användare än. Vi njöt av att spela på den här skärmen, och du kommer säkert att älska den också.

    Acer Predator XB271HK - UHD 27-tum


    • Bästa pris i Ryssland: 43 900 RUB

    FÖRDELAR

    • Rika färger
    • Bildnoggrannhet vid fabriksinställningar
    • G-Sync
    • Ultra HD-upplösning
    • Betraktningsvinklar
    • Bygg kvalité

    BEGRÄNSNINGAR

    • Dyr