GoldenCrystal (./11) :
Ben c'est ce qui se passe avec les float justement, sauf que la précision du FPU x86 est réglée sur 64 bits par le CLR au lieu de 80 ^^ (Mais c'est pas documenté explicitement, en théorie ça pourrait être 80 puisque les specs l'autorisent…)
En toute logique tu n'auras donc pas ce problème avec des double en .NET… Pour l'instant.
Pour complément:
- En 64 bits, tu utilises les instructions sse2, pas la fpu, donc des ieee-64 bits tout le temps.
- Et la fpu des 386 est réglé en 80 bits sous linux par défault (donc c'est juste lorsque tu stockes le résultat dans un double qu'un conversion en 64 bits survient).