Pen^2
:Link
: la démo la plus récente était un programme Kernel
ahhhh !!! c'est un bon gars.

Link :
PS: Double-K, il utilise le mode Kernel depuis le temps où les gris n'étaient pas certains, il préférait les laisser aux libs...
De plus, aux dernières nouvelles, il n'utilisait pas TI-GCC, mais toujours notepad et A68k,
donc il ne pouvait pas trop utiliser les gris de TIGCCLIB...
Tu me diras peut-être qu'il est dépassé
mais c'est un vrai programmeur Asm...

Bref, en gros les deux moteurs doivent avoir la même vitesse (le sien reste encore légèrement plus rapide, mais il y a aussi une résolution verticale un peu moins bonne, ce qui fait que c'est grosso modo pareil).
l'arnaque


VarkEffectivement, la routine actuelle est plutôt mauvaise. J'ai réécrit une routine en C elle aussi qui est plus de 2 fois plus rapide...
: et je doute fortement des performances du zoom d'extgraph
orage :
Ok merci... Mais alors, vous programmez vous même vos routines d'affichage ? (pour des jeux avec le moteur mode 7)
et ben, respect
Brunni :
Pas mal le mode7 à Pollux... très bien même!![]()
Personnellement, je suis incapable de coder une routine de rotation (même en C) qui puisse terminer un blit de 16 par 16 avant que les piles soient mortes. Ou bien ma routine d'aggrandissement... Ok elle utilisait les réels, mais bon c'était plus une routine de (lent) défilement vertical qu'une routine d'aggrandissement (bon j'utilisais ScrRectFill pour chaque pixel...), alors quand je vois des moteurs du genre celui de Pollux... Mais peut-on trouver des algos rapides sur internet, ou bien faut-il être un dieu en maths pour ça? (perso je ne trouve rien mais la recherche sur google n'est pas mon fort)

).
En fait le truc qu'il faut bien comprendre c'est que tu ne pars pas d'un pixel de la source pour arriver à un pixel de la destination (comme le sous-entend Brunni avec son ScrRectFill), parce que sinon tu vas avoir des gros problèmes : ça va très certainement être tout moche parce que quand tu vas afficher ces pixels, soit il va y en avoir trop (pixels "loin" de la caméra), soit pas assez (pixels proches, et on va devoir faire un truc bizarre pour remplir correctement l'espace entre les pixels, j'ose même pas y penser
). C'est bien plus efficace de partir d'un pixel de la destination pour arriver à un pixel de la source : comme ça, tu affiches pile ce qu'il faut. Mathématiquement, ça veut juste dire (et d'ailleurs Kevin Kofler l'a expliqué des tonnes de fois) que tu prends la projection inverse puis la rotation (inverse, mais ça ça change rien) au lieu de prendre la rotation directe puis la projection directe.
