Le premier benchmark de DirectX 11 est disponible
Et proposé par le moteur 3D Unigine

Le , par raptor70, Expert éminent
Le premier benchmark de DirectX 11 est disponible et proposé par le moteur 3D Unigine

Alors que la sortie de Windows 7 a eu lieu très récemment, DirectX 11, l'API multimédia de Microsoft, compatible pour ce nouveau système d'exploitation et pour les nouvelles cartes graphiques, est enfin a l'étude par les différents acteurs du monde 3D. Ainsi, Unigine, un moteur 3D, nous propose le premier benchmark sur les capacités de DirectX 11.

On note principalement des tests sur :
  • Support natif d'OpenGL, DirectX 9, DirectX 10 et DirectX 11
  • Utilisation des technologies de tesselation
  • SSAO (screen-space ambient occlusion) avancée
  • Génération de nuages cumulonimbus volumétrique par un algorithme physique précis
  • Simulation dynamique de changement d'environnement avec une haute fidélité physique
  • Expérience interactive avec les modes fly/walk-through
  • Support de Eyefinity d'ATI


[ame="http://www.youtube.com/watch?v=9F6zSgtRnkE"]YouTube - Unigine "Heaven" DX11 benchmark[/ame]

Benchmark d'Unigine sur DirectX 11

Que pensez vous de cette étude ?
DirectX 11 a t'il de l'intérêt selon vous pour les prochaines générations d'application 3D ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Ced-le-pingouin Ced-le-pingouin - Membre à l'essai http://www.developpez.com
le 25/10/2009 à 14:32
Citation Envoyé par moldavi  Voir le message
Bonjour

Je crois que c'est quand même délicat de dire que le passage de Dx9 à Dx10 n'apporte rien.

Déjà Bioshock est-il optimisé Dx10 ? Si non, cela paraît évident que les améliorations ne sont pas notables.

Et puis les drivers graphiques y sont pour beaucoup. Ca me rappelle un exemple du SDK de Dx9 (Blobs). Au début, celui-ci tournait à 2fps sur ma machine. Au bout d'un an et avec la version de driver graphique du moment, ça passe à 25 fps...
Autre exemple, chez ATI, les cartes graphiques étaient vendues avec des puces de compression de fichiers vidéos (HD, mpeg2). Il a fallu attendre un an et les drivers adéquats avant de pouvoir les utiliser.

Autant dire que le rôle des drivers est significatif.

PS: un des avantages de la tesselation, c'est qu'elle utilise moins de mémoire et moins de bande passante aussi. Ce qui peut-être un compromis intéressant par rapport à un objet complet.

En fait, mon commentaire était un peu "provoc'" dans la mesure où le cirque du monde des cartes graphiques me gave depuis un moment déjà, de par les mensonges marketing, les prix pratiqués, les comportements de cour de maternelle entre concurrents, etc etc.

Donc c'est un peu une réaction par rapport à ça, et surtout au fait que ces aspects ont toujours été en augmentant, alors que les améliorations visuelles étaient - forcément - de moins en moins spectaculaires par rapport aux débuts des cartes 3D, et donc que je trouvais que de la part des constructeurs il y avait de moins en moins de quoi se gargariser à chaque nouvelle carte hors de prix qui sortait. Réaction amplifiée également par la geekisation extrême du sujet, où des gars à qui on pose une question qui accepterait une réponse "oui" ou "non" se sentent obligés de copier-coller les 3 pages de leur config là où ça n'a rien à voir...

Enfin ça c'est pour le mode "my life", mais pour ne pas être accusé de mauvaise foi, l'exemple que je donne concernant Bioshock est une observation honnête et "objective".

Mais c'est vrai que les drivers sont importants, et réparent parfois les problèmes de performances... si une nouvelle carte n'est pas déjà sortie quelques mois plus tard, et que donc les optimisations pour la précédente qui n'a même pas un an ne s'arrêtent pas déjà brutalement (quel gaspillage de technologie).

Pour DirectX 10 et ses améliorations, après avoir un peu relu ce qui était nouveau, particulièrement les geometry shaders, il est vrai que ça concerne surtout des choses qui ne sont pas forcément très visibles en fonction du jeu (les point sprites, la précision des ombres, la fourrure?). C'est vrai qu'à un moment, selon les personnes, on atteint un point où les changements sont visibles en scrutant attentivement 2 screenshots côte à côte, mais pas vraiment quand on est en train de jouer. Ca me fait un peu penser au monde de l'audio, où parfois acheter du matos encore plus techniquement performant (indéniable sur le papier et à la vision de tests stricts, graphique de la courbe sonore à l'appui) ne sert plus à rien pour certaines personnes, qui n'entendront pas la différence (fait tout à fait possible et tout aussi indéniable selon moi).
Le seul truc que j'ai trouvé bien par rapport à DX10 c'est qu'apparemment ça permet de créer de la fourrure plus réaliste aussi. Je ne sais pas si Overlord II utilise ces possibilités, mais les fourrures dans ce jeu sont vraiment remarquables... ce qui me fait penser qu'à l'époque de la préhistoire, càd à la sortie de la GeForce 3 ou 4, une démo technologique vantait les "shaders" à l'aide d'un loup(-garou?) pour montrer comment c'était bien qu'on pouvait faire de la fourrure. Après cette démo... plus de nouvelles, jusqu'à DX10 (un siècle plus tard), où on nous dit que *maintenant* la fourrure on va pouvoir la faire correctement (ah le marketing)

Merci pour la précision concernant la bande passante, ça c'est un argument que je comprends, et c'est vrai que pour certains benchs, c'est la bande passante qui limite, donc ce genre de trucs, généralisé, ça permettrait de faire *plus* avec la même bande passante.
Avatar de LeGreg LeGreg - Membre expérimenté http://www.developpez.com
le 25/10/2009 à 18:27
Citation Envoyé par Ced-le-pingouin  Voir le message
ce qui me fait penser qu'à l'époque de la préhistoire, càd à la sortie de la GeForce 3 ou 4, une démo technologique vantait les "shaders" à l'aide d'un loup(-garou?) pour montrer comment c'était bien qu'on pouvait faire de la fourrure. Après cette démo... plus de nouvelles.

C'est parce que tu vois l'actu passer sous tes yeux mais tu ne la comprends pas.

A l'époque de la geforce 3/4 on pouvait faire de la fourrure, certes basique mais qui était bluffante pour l'époque. Après dans un jeu il n'y a pas forcément beaucoup d'exemples de modèles qui ont besoin de fourrure mais la technique est utilisée par ci-par là et fait son boulot et c'est tellement banal qu'on n'en parle plus (et il est utilisé pour les cheveux.. courts, pour le rendu de l'herbe etc.).

Avec l'augmentation de la puissance et de la programmabilité, la fourrure (ou les modèles d'éclairage etc..) que l'on pouvait faire il y a 9 ans semble vieille et pas très convaincantes parce que la puissance et la programmabilité ont progressé et donc il faut faire PLUS pour convaincre.

Maintenant la fourrure et les cheveux peuvent s'appuyer sur des modèles physiques avancés (sous geforce 3, la fourrure était plusieurs couches de textures simples et l'animation était procédurale/non physique), les poils rendus individuellement, avec des ombrages volumétriques. Certes les techniques développées ne sont pas toujours applicables telles quelles dans le temps réel, mais c'est pour ça que le hardware progresse : pour qu'un jour cela soit faisable en temps réel. Mais le jour où cela sera réalisable, ce sera banal et on passera à autre chose. Mais l'objectif sera bel et bien réalisé.

"Vieille" fourrure basée sur des couches de textures superposées (2001) :
http://jedwork.com/jed/papers/LPFH-fur-2001.pdf

Affichage de cheveux "modernes" (2008) :
http://developer.nvidia.com/object/s...2008-hair.html

LeGreg
Avatar de LeGreg LeGreg - Membre expérimenté http://www.developpez.com
le 25/10/2009 à 18:32
Il faut aussi faire la différence entre ce qui passe sur les "sites de news" et l'état de l'art. Les sites de news parlent des choses de manière lacunaires en se focalisant sur un événement précis. L'état de l'art progresse en continu et n'intéresse souvent que les spécialistes ou ceux qui doivent implémenter un effet précis dans leur programme.
Avatar de Groove Groove - Membre régulier http://www.developpez.com
le 25/10/2009 à 19:48
Plusieurs trucs qui me font ouvrir les yeux en gros!

1. le passage a D3D10
D3D10 et le GeForce 8 ont ete une evolution majeur et bien plus radical que D3D11. Il y a eu a grand nombre de probleme pour cette API qui a fait que sont adoption est limite et a ete tres lente: Tourne que sous Vista, le marche des jeux est maintenant escentiellement base sur les consoles qui sont plutot des chips de la generation D3D9c, D3D10 a ete vendu pour les geometry shaders qui sont mal implemente sur GeForce 8 et en fait presque inutile, demande un gros cout de production pour pas grand chose. C'est un mauvais rapport qualite prix s'ils ont veux. La guerre entre ATI et nVidia avec Direct3D 10.1, une update mineur mais a mon sens FONDAMENTAL!

Direct3D 10 a introduit une maniere complement differente de programmer les moteur de rendu 3D temps reel, passant d'un design de type "forward renderer" au design "deferred shading/lighting". Ca a demande beaucoup de travail, de recherche mais maintenant j'ai envi de dire que ca y est presque.

2. Direct3D 11
Direct3D 11 est une evolution majeur avec un impact evident facile a vendre avec la tesselation. C'est une evolution qui va se traduire de maniere immediate car la tesselation a l'avantage de s'integrer a moins coute dans le pipeline de production. Un model haute resolution avec z-bush => Normalmap / Heightmap / model low resolution. Les developments de c'est derniere annees nous offre deja tout ca! Le but de la tesselation c'est de pouvoir afficher des models de tres haute resolution meme anime sans pour autant subit des problemes limitations de bandes passantes memoires: Aujourd'hui la bandes passantes memoires c'est la bottleneck principale! Ca coute tres chere au niveau de la production du GPU. Les autres inovations peut-etre moins visible directement mais tout aussi voir plus importante: Une meilleurs gestion du multithreading et DirectCompute. Tout ceci suis l'evolution actuelle et font de D3D11 une API tres mature! (contrairement a D3D10).

3. Unigine
C'est certainement le moteur de plus sortie d'un garage que l'on puisse trouver aujourd'hui! Il est develope excenciellement par un seul gars qui se fait appele Frustum: Un EXCELLENT developer qui BOSS DURE depuis presque 10 ans pour en arriver a ca. Techniquement cette demo est excellente mais quand meme artistiquement ... que horreur! Le DOF est utilise a outrance et de maniere indapter. Quand on voit le gros DOF de cingler quand on tourne autour deux iles de tres loin ... c'est n'imp, juste optiquement pas correct! D'un autre cote, quand on tourne autour du dragon, il n'y en a pas alors qu'il serait bien venu. J'espere vraiment que Unigine va continue a se developer et que l'on vera ce moteur / cette demo utiliser sur les sites de bench de carte graphiques car techniquement il est concu comme un moteur moderne D3D10.1/11, il est donc tres credible et j'espere rapidement (d'ici 3 mois chez nVidia) voir des updates pour avec un rendu OpenGL au niveau de D3D11.
Avatar de Bakura Bakura - Rédacteur http://www.developpez.com
le 25/10/2009 à 20:24
C'est certainement le moteur de plus sortie d'un garage que l'on puisse trouver aujourd'hui! Il est develope excenciellement par un seul gars qui se fait appele Frustum: Un EXCELLENT developer qui BOSS DURE depuis presque 10 ans pour en arriver a ca.

Vraiment ? Si c'est le cas alors bravo à lui, j'ose même pas imaginer la MASSE de travail qu'il y a derrière ce moteur, toujours à la pointe de la technologie (ça fait plus ou moins 2 ans que je le connais et il a toujours été l'un des premiers à implémenter les dernières features à la mode).

Et puis, le moteur ne semble pas très cher (25 000 $, je pense que le CryEngine ou Unreal coûtent BIEN PLUS que ça).
Avatar de Groove Groove - Membre régulier http://www.developpez.com
le 25/10/2009 à 22:08
C'est une chose d'avoir un renderer, c'est une autre chose d'avoir un game engine et c'est encore autre chose de l'avoir multiplatform.

Je ne suis pas a fond sur les prix mais il est clair qu'un niveau des tools Crysis c'est un sacré truc. Probablement pas autant que Unreal. Les tools c'est tout aujourd'hui et id software en a fait les frais avec idTech4.
Avatar de Ced-le-pingouin Ced-le-pingouin - Membre à l'essai http://www.developpez.com
le 26/10/2009 à 12:00
Citation Envoyé par LeGreg  Voir le message
C'est parce que tu vois l'actu passer sous tes yeux mais tu ne la comprends pas.

...

Ca c'est toujours possible... Mais j'essaye.

J'ai avoué moi-même ne pas être un spécialiste en prog 3D, mais comme j'aime m'informer sur ce genre de choses (je ne me limite pas aux news de 2 lignes), je peux comprendre la différence entres des effets réalisés à base de textures, de shaders, de multiples couches, ou autres, et la différence entre ce qui est dynamique ou pas, programmable ou pas. Maintenant, c'est vrai que je ne connais pas toujours les termes "scientifiques" de tout ça, on pourra toujours me prendre en défaut là dessus.

J'ai retrouvé après avoir rédigé mon message le fameux wolfman, y a une video HD. Bah pour un "vieux" truc finalement c'est pas si mal, même si on voit bien que la fourrure est "rase" et figée et qu'il ne pourrait en être autrement, et surtout qu'un fois que la carte a fait ça, elle est à fond (décors "plaques" et un seul "gros" modèle possible).

Je ne disconviens pas - même pour DX10 que je n'ai pas adoré - que chaque étape, même petite, permet d'arriver à l'étape supérieure. Simplement, y a pas que la technique qui entre en compte, et c'est énervant de voir des technologies "gaspillées" - rare, par ex. des fonctionnalités utiles présentes sur des cartes mais pas utilisées pour des raisons autres que techniques -, ou au contraire des technos qui représentent un pas vers l'avenir et qu'on nous vend comme argument principal... en sachant très bien que tout ce qu'on pourra afficher avec d'ici 5 ans, c'est à peine 2 modèles avant que ça rame sec.

Voilà, juste pour clarifier mon point de vue, mais c'est vrai qu'il s'agit juste de mon aversion pour le marketing roi qui ressort, je comprends qu'on ne s'attache pas à ça, d'ailleurs je trouve le développement technologique "pur" passionnant, mais c'est vrai que le monde des cartes graphiques est l'un des domaines ou ce marketing est le plus puant, même si selon les époques ça diminue ou ça augmente (les noms/numéros des modèles volontairement trompeurs, les powerpoints pleins de fausses infos etc., des gamins quoi).

Le tout est d'essayer de s'informer de de pas se jeter sur des promesses illusoires, pour moi.
Avatar de Ced-le-pingouin Ced-le-pingouin - Membre à l'essai http://www.developpez.com
le 26/10/2009 à 12:24
Citation Envoyé par Groove  Voir le message
1. le passage a D3D10
...

Je suis globalement d'accord avec toi finalement... Hurray pour l'étape nécessaire aux changement futurs, mais dans les faits, les cartes le supportant, bof. Tu dis que les GeForce 8 disposaient des fonctions mais pas très bien implémentées. J'apprends quelque chose, parce qu'ayant eu la "concurrente" de chez ATI, une HD2000, elle se prenait tellement la pâtée par une GeForce 8 que faut pas demander si les fonctions avaient bien été implémentées chez nVidia...

Puis évidemment y a eu cet entêtement de MS à forcer les gens à acheter un Vista pas terminé et lourd, où DX10 serait une exclusivité... et (mal?)heureusement personne s'est senti si forcé que ça, donc cette étape est un peu tombée à l'eau... Heureusement, le Vista fini est bien sorti, il s'appelle Windows 7, et en bonus on aura même DX11 . Tout rentre dans l'ordre.

Citation Envoyé par Groove  Voir le message
2. Direct3D 11
...

C'est vrai que c'est intelligent d'avoir "inventé" cette fonction pour économiser la bande passante. J'espère qu'elle sera bien utilisée, aussi pour "tesseller" à des niveaux différents en fonction de ce que chaque carte/machine est capable d'afficher (apparemment ce serait possible). C'est tout bénef'.

Citation Envoyé par Groove  Voir le message
3. Unigine
...

Ah je savais pas que c'était un gars qui faisait ça presque seul...

Pas contre, pas de problème, je suis d'accord avec toi sur l'effet de flou pour le DoF. D'ailleurs, il m'est arrivé à plusieurs reprises de détester l'utilisation qui était faite de certains nouveaux effets "à la cool" dans des jeux. Soit-disant ça donnait au rendu un aspect plus réaliste, mais dans les faits l'utilisation était tellement excessive que c'en était parfois risible

Par exemple les réflections à tout va sur la route dans certains jeux de caisses il y a quelques années
Ensuite le motion blur totalement irréaliste dans d'autres.
Et, il y a trèèèèèèèèès longtemps, la tentative de persuader tout le monde que, comme le mipmapping+filtering c'est tellement cool, voir un sol tellement flou (dans quasi tous les FPS de l'époque) que tu dois te faire checker les yeux paniqué en te demandant si t'as pas un grave problème, c'est mieux qu'une certaine pixellisation. Esthétiquement je trouve que c'était pas toujours évident, mais là c'est une question de goût personnel.
Avatar de - http://www.developpez.com
le 02/11/2009 à 16:59
Citation Envoyé par Bakura  Voir le message
Bof, la HD5870 est aussi performante, simple GPU et moins chère. Et DirectX 11.

C'est comme dire qu'une Peugeot WRC est aussi performante qu'une Porsche...

La Peugeot ça reste une bouse en plastique alors que la Posche ça reste un aimant à bombes...
ou encore
Qu'un PC est aussi puissant qu'un Mac, le mac est un aimant à blondes qui n'ont que deux neurones à trois alors que le pc, même sous sévenne il faut quand même un neurone par personne.
ou encore dire que ta femme est aussi jolie qu'une poupée russe...

Bref, il n'y a pas que la performance pure, pour ma part, je préfère la stabilité et avec tout ce qui émane d'AMD j'ai que des soucis donc moi c'es :
Intel / Asus / Nvidia..

++

Laurent
Avatar de Bakura Bakura - Rédacteur http://www.developpez.com
le 02/11/2009 à 18:16
Je sais pas comment tu fais pour avoir "que des soucis" avec ce que fais AMD... Ça fait des années que j'ai des cartes ATi, et je n'ai jamais eu UN SEUL soucis. Tu sais, ce que fais ATi aujourd'hui et ya 6 ans ça n'a rien à voir hein...

Et je comprends pas ta remarque sur la Peugeot et la Porsche, elle n'a aucun sens. En l'occurrence tu parles de deux bagnoles qui n'ont strictement rien à voir dans leur utilisation. Jusqu'à preuve du contraire, l'utilisation on va dire "normale" d'une 5870HD et d'une GTX295 est plus ou moins identique... Alors non, je maintiens que tant qu'à faire, autant avoir quelque chose d'aussi performant ET moins cher ET compatible DirectX 11...

EDIT : et ne me fais pas dire ce que je n'ai pas dit, la GTX295 est une très bonne carte, mais aujourd'hui, à l'heure où j'écris ces lignes, autant se rabattre sur les dernières solutions d'AMD.
Avatar de - http://www.developpez.com
le 02/11/2009 à 19:55
Et pis on est pas là pour troller après tout...

Disons qu'avec la nouvelle génération de PC et windows Seven on pourra à nouveau rivaliser avec les consoles avec nos PC... Les trois dernières années c'était possible mais pas toujours accessible...

++

Laurent
Offres d'emploi IT
Industrialisation et développement (H/F)
Atos - Provence Alpes Côte d'Azur - Sophia Antipolis
Reconversion,futur ingénieur .net h/f
Adaming - Nord Pas-de-Calais - Lille (59000)
TECHNICIEN QUALITE METHODES(H/F)
AGENCE SUPPLAY - Centre - Mer (41500)

Voir plus d'offres Voir la carte des offres IT
Responsable bénévole de la rubrique 2D - 3D - Jeux : LittleWhite -