301Fermer303
BrunniLe 19/07/2010 à 15:15
Godzil (./291) :
La raison est simple, personne ne dit que les films sont haché & co et ne se plein du 24p alors que pour les jeux "ouin mpon pc est pas capable de faire du 42*42^42 fps en TrifullHD, il est naze"

Sans compter que pour tenir les 60fps, rare sont les jeux qui affichent reelement en 1080i/p

En tout cas sur consoles.

Ce n'est pas la première fois que tu trolles sur le sujet wink
Sur un film / une image vue par ton oeil il y a la persistance rétinienne, en d'autres termes un "motion blur". Ce motion blur résulte du fait que la caméra ou ton oeil, durant son temps de pose de 1/24 sec, va en fait voir plus d'une image et les mixer.
Pour un jeu vidéo si tu veux générer des images à 24 Hz qui soient réalistes, tu dois pouvoir émuler ce motion blur, et le plus simple pour cela est... de calculer en fait plus de frames que ça. A ce moment tu as deux solutions:
* Tu génères 48, 96, ... frames par seconde, tu les mixes sur une image et tu rends ça sur un écran 24 Hz (donnera quelque chose de similaire à un film d'animation)
* Tu as un écran avec un taux de balayage plus élevé (48, 50, 60, 72, etc. Hz) et tu génères une image différente pour chaque cycle. C'est plus simple à implémenter si la technologie (CRT) le permet, et ça donne le même effet qu'en 24 Hz, avec l'avantage que les yeux peuvent eux aussi bouger cette fois sans induire de hachage (on remarque dans les films que parfois ils ont l'air saccadés quand on bouge les yeux pour suivre un sujet).
J'espère que cette fois tu vois que c'est différent wink