La technologie G-Sync de NVIDIA expliquée
La solution de NVIDIA contre les problèmes de synchronisation entre la carte graphique et le moniteur

Le , par LittleWhite, Responsable 2D/3D/Jeux
NVIDIA a annoncé une nouveauté qui pourrait changer la vie des joueurs. En effet, pratiquement tout le monde connaît les déchirements dans l'image que l'on peut apercevoir lorsque la synchronisation verticale est désactivée et NVIDIA apporte une solution sous la forme d'une carte se connectant entre la carte graphique et le moniteur.


Mais, revenons sur le problème.

Actuellement, l'écran affiche un nombre d'images fixe. La carte graphique, un nombre d'image dynamique, qui plus est, pouvant grandement varier et cela même dans une simple scène (par exemple, allant de 30 à 80 IPS). Du coup, la carte graphique va envoyer une image alors que l'écran est entrain de la dessiner (cas du déchirement). Si vous activez la synchronisation verticale, il n'y aura plus de déchirement, car la carte graphique attendra le balayage de l'écran, mais vous allez sentir des lags, ce qui est aussi très désagréable.

[ame="http://www.youtube.com/watch?v=KZyhCKH8IbQ"]Guru3D - NVIDIA G-SYNC Overview - Shaky Cam Voice over is Tom Petersen from NV - YouTube[/ame]
(attention, la vidéo YouTube étant elle même à 30 FPS, il sera compliqué de voir l'amélioration)

NVIDIA apporte donc une solution à ce problème. Grace à G-Sync, l'écran devient esclave de la carte graphique et le taux de rafraîchissement devient alors dynamique permettant ainsi une meilleure synchronisation entre les deux et donc, d'enlever les défauts d'images.
Même sur un écran à 30 Hz l'expérience de jeux en est visuellement meilleure. De plus, les écrans allant jusqu'à 177 Hz et les écrans 4k sont aussi supportés.

Les écrans compatibles ainsi que la carte devraient être facilement disponible au début de l'année 2014. Asus, Benq, Philips et ViewSonic sont les constructeurs qui produiront ce type d'écran. Le prix n'est pas encore annoncé, mais il se pourrait être à une hauteur de 100 €.


Les cartes compatibles avec G-Sync sont les GTX TITAN, GTX 780, GTX 770,GTX 760, GTX 690, GTX 680, GTX 670, GTX 660 Ti, GTX 660, GTX 650 Ti Boost.

Votre opinion ?

Que pensez-vous de la solution apportée par NVIDIA pour ce problème connus de tous les joueurs ?
Êtes-vous prêt à investir pour une telle solution ?
Est-ce que tous les jeux peuvent supporter une telle technologie ?

Source

Guru3D


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Dabou Master Dabou Master - Membre expert https://www.developpez.com
le 21/10/2013 à 21:38
1) Hum, je ne sais pas, je la sens pas cette solution. On va remplacer le problème par un autre je dirais. Quand on a une bonne config, la V-Sync n'occasionne pas de lags.

2) Je ne vais sûrement pas investir pour un truc qui n'a absolument pas fait ses preuves alors que la situation actuelle est tout de même satisfaisante. Et, je ne suis pas un grand connaisseur en la matière, si jamais cette solution accélérait l'usure des écrans ? J'attendrai un long moment pour être sûr avant de me lancer dans cette aventure.

3) Vu qu'on est dans le hardware je ne comprends pas en quoi un jeu pourrait ne pas supporter ça ... C'est le signal vidéo qui est altéré par la carte, le jeu n'a pas le choix si ?
Avatar de moldavi moldavi - Membre émérite https://www.developpez.com
le 22/10/2013 à 1:46
Bonjour.

Avant il y a avait deux options : synchronisation verticale ou pas. Les écrans et les cartes graphiques ne communiquaient pas entre-eux.

Si je comprends bien ce système, maintenant, l'écran peut dire à la carte graphique, j'ai finit de dessiner, envoie-moi la suite (donc peut-être un peu plus rapidement qu'une synchronisation verticale figée).

Ca peut le faire, il faut voir à l'usage.
Avatar de Squisqui Squisqui - En attente de confirmation mail https://www.developpez.com
le 22/10/2013 à 11:23
Citation Envoyé par moldavi  Voir le message
Bonjour.

Avant il y a avait deux options : synchronisation verticale ou pas. Les écrans et les cartes graphiques ne communiquaient pas entre-eux.

Si je comprends bien ce système, maintenant, l'écran peut dire à la carte graphique, j'ai finit de dessiner, envoie-moi la suite (donc peut-être un peu plus rapidement qu'une synchronisation verticale figée).

Ca peut le faire, il faut voir à l'usage.

Ça serait plutôt le contraire. L'écran rafraichit l'image que lorsqu'elle en reçoit une nouvelle.

En dessous du taux de rafraichissement normal de l'écran ça aide, au delà, ça sent les images rémanentes amplifiées à plein nez en plus de l'usure accélérée de l'écran.
À 100€ le boitier, le joueur ferait mieux de placer cette somme dans une carte graphique plus véloce ou faire un SLI/CrossFire avec sa carte graphique existante (occasion ou autre). Jouer en FullHD dans de bonnes conditions n'est plus réservés à une élite.
Par contre, le boitier sera le bienvenu si les écrans 4K (+3000€) deviennent accessibles avant les cartes graphique adéquate (+1000€).
Avatar de Jbx 2.0b Jbx 2.0b - Membre expérimenté https://www.developpez.com
le 22/10/2013 à 11:29
NVIDIA apporte une solution sous la forme d'une carte se connectant entre la carte graphique et le moniteur.

Moi ce qui me saute aux yeux, c'est pourquoi avoir une carte "se connectant entre la carte graphique et le moniteur". Je propose deux solutions :

1) L'intégrer dans la carte graphique.
2) L'intégrer dans l'écran.

Merci de rien. Ça sent vraiment le gadget pour nous faire payer plus cette histoire.
Avatar de niarkyzator niarkyzator - Membre confirmé https://www.developpez.com
le 22/10/2013 à 13:28
Alors qu'avec le triple buffering pour la Vsync, tu n'a ni tearing ni pertes de perf ni pertes d'argent.
Avatar de youtpout978 youtpout978 - Membre expert https://www.developpez.com
le 22/10/2013 à 14:20
Un nouvel objet dans la boite à outil de Nvidia pour concurrencer AMD, le problème c'est que comme tous leur produits ça nous oblige à rester chez eux pour continuer à les exploiter.
Avatar de Guilp Guilp - Membre éprouvé https://www.developpez.com
le 22/10/2013 à 14:52
Citation Envoyé par niarkyzator  Voir le message
Alors qu'avec le triple buffering pour la Vsync, tu n'a ni tearing ni pertes de perf ni pertes d'argent.

J'allais le dire. Sauf que, le triple buffering implique plus de besoins en mémoire de la carte graphique, ce qui fait qu'on a tout de même besoins d'une carte graphique un peu plus chère (car plus de ram) pour résultat égal avec un autre carte graphique sans vsync + triple buffer.

Cependant, j'ai fait le calcul lors de mon achat : c'est moins cher d'acheter une TV à 60Hz + carte graphique 2Go qu'une TV 120Hz + carte graphique équivalente à 1Go. (Après, ça évolue dans le temps...).

Par contre, il y a un avantage à cette carte intermédiaire, si en effet ça fonctionne correctement et que c'est une optimisation purement hardware sans besoins de drivers particuliers (est-ce le cas?) : Le problème de la VSync + triple buffering, c'est que c'est compatible direct X, Open GL, VLC (en bidouillant pendant des heures dans VLC), mais ça n'est pas bien géré partout...

Par exemple, je me suis battu pendant des heures pour que Flash le prenne en compte, sans succès. (Donc mes vidéos Youtube sont déchirées!). Autre exemple, pour la gestion des fenêtres de Linux Mint : pas réussi à virer le déchirement! Et VLC est l'unique lecteur que j'ai réussi à configurer pour la VSync... Gom Player ou autre, jamais réussi à le configurer...

Et je ne parle pas des jeux exotiques qui ne gèrent pas bien la vsync + triple buffer (même en la forçant au niveau driver).

Juste pour toutes ces emmerdes de configuration au cas par cas, où il faut être ingénieur bac+15 pour régler la vsync, ça ne faut pas le coup d'acheter un écran à 60Hz, et autant claquer 300€ (prix de mémoire, au pif) en plus pour un 120Hz au moins.

Et si une telle nouvelle carte peut régler ce problème (et économiser les 300€ de supplément au niveau de l'écran), alors je suis preneur à 100%!!
Avatar de moldavi moldavi - Membre émérite https://www.developpez.com
le 22/10/2013 à 23:34
Re.

Citation Envoyé par Squisqui  Voir le message
Ça serait plutôt le contraire. L'écran rafraichit l'image que lorsqu'elle en reçoit une nouvelle.

Tout à fait. Lorsque la carte graphique n'utilise pas la synchro verticale, on peut observer du tearing, parce que l'écran affiche ce qu'on lui donne.

Lorsque l'on utilise la VSync, la carte graphique n'envoie les images que lorsqu'elle est certaine que l'image précédente est entièrement affichée (basé sur le taux de rafraîchissement de l'écran). Donc pas de tearing.

Un moniteur n'a jamais communiqué avec la carte graphique. Mais si maintenant un moniteur est capable de dire à la carte graphique : j'ai terminé l'affichage d'une image, la carte graphique peut gérer plus précisément ses buffers et peut-être éviter le triple-buffering.

Je le vois comme cela, mais l'usage en dira plus.
Offres d'emploi IT
DBA oracle h/f
Hôpital Européen Georges Pompidou - Ile de France - Paris (75015)
Ingénieur développement c# .net
E ConsultingRH - Nord Pas-de-Calais - Lille (59000)
Développeur JAVA/GEMO H/F
BULL FR - Provence Alpes Côte d'Azur - Toulon (83200)

Voir plus d'offres Voir la carte des offres IT
Responsable bénévole de la rubrique 2D - 3D - Jeux : LittleWhite -