15Fermer17
RHJPPLe 21/10/2013 à 23:59
Zerosquare (./9) :
Je pense que c'est surtout le poids de l'existant. Avant la sortie des écrans LCD, tous les systèmes qui utilisaient des écrans (hors cinéma) utilisaient explicitement ou implicitement la courbe de réponse des CRT, parce qu'ils étaient conçus pour donner de bons résultats sur des CRT. Et ça remonte à loin, c'est comme ça depuis les débuts de la télévision, autrement dit il y a des dizaines d'années de standards et de données qui sont comme ça.
Évidemment. Mais c'est plus un archaïsme qu'autre chose maintenant. Ça complexifie beaucoup les traitements pour aucun avantage.
Zerosquare (./9) :
D'autre part, par un heureux hasard, la courbe de réponse des CRT s'adapte bien à la sensibilité de l'œil humain ; en linéaire, il faudrait davantage de bits pour obtenir une qualité visuelle équivalente.
Oui, c'est pourquoi je proposais aussi un format logarithmique. Mais c'est en fait une erreur. On devrait passer en linéaire sur plus de 8 bits (8 bits, c'est vraiment pas beaucoup dès qu'on veut faire du traitement). Si on peut avoir un gain de place sans altérer le rendu visuel par l'utilisation d'une quantification logarithmique, alors c'est au format de compression de le prévoir (comme pour les quantifications non linéaires utilisées en audio).