Det verkar finnas en hel del olika synpunkter angående detta.
En del påstår att om ett spel inte kan hålla 120fps och du spelar på en 120Hz skärm droppar frameraten ner till 60Hz även om det faktiska fps-talet är t.ex. 115fps eller 90fps etc.
Andra menar att v-sync inte behöver halvera uppdateringshastigheten utan kan gå ner stegvis och ändå motverka tearing. T.ex. en skärm i 120Hz men grafikkortet orkar bara producera 100fps resulterar i just i 100fps.
Hur ligger det till egentligen? Förstår att G-sync eller FreeSync är att föredra då man slipper v-sync helt, men vore kul att veta hur det faktiskt fungerar eftersom det verkar finnas många delade meningar om det.