./8177 > Ça, c'est toujours vrai pour l'agrandissement, mais pour la réduction, si tu veux un truc de qualité optimale, tu dois moyenner tous les pixels qui couvrent la zone du futur pixel. Si tu divises l'image par 2*2, ça fait effectivement 4 pixels pour 1 pixels, mais sinon, ça peut faire beaucoup plus ^^
À ce niveau, tu peux concevoir qu'un GPU se contente d'un algorithme simplifié pour optimiser les performances.
./8176 > Un filtre Gaussien est une fonction 2D continue, donc en théorie, pour calculer un pixel de l'image de destination, tu dois utiliser *tous* les pixels de l'image source. En pratique, tu peux réduire la surface du filtre lorsque les coefficients produits par la fonction deviennent "négligeables", donc ça concerne juste une "zone large" de pixels. (PS: Si tu disposes de suffisamment de mémoire, et en général c'est le cas, tu peux décomposer le filtre 2D en deux opérations de filtrage 1D pour rendre le calcul plus rapide.)
Zerosquare (./8119) :
Apple a fait le très bon choix d'augmenter la taille du capteur plutôt que le nombre de pixels…
Bah euh... ils auraient pu aussi augmenter la taille
et le nombre de pixels (en gros garder la même densité) ? Du coup tu pourrais avoir des photos avec une définition plus élevée quand il fait clair, et combiner les pixels pour réduire le bruit quand il fait sombre. Non ?[/cite]Chaque évolution technologique dans le domaine des capteurs permet de réduire le SNR à taille de pixel fixe, mais à technologie équivalente, un pixel plus gros implique toujours un meilleur SNR. Techniquement, si tu augmentes la taille du capteur en même temps que la technologie utilisée, tu gagnes sur les deux plans.
Sinon, le fait d'avoir de plus gros pixels améliore l'image dans toutes les conditions en dehors de la sur-exposition. Ça veut aussi dire que si tu as une zone un peu plus sombre dans une image relativement claire, les détails seront meilleurs (enfin ça va dépendre de l'exposition choisie par le logiciel). Et tu n'auras pas de dégradation subite de la qualité d'image en dessous d'une luminosité arbitraire comme c'est le cas avec l'iPhone 5

Disons que tu mises sur une qualité d'image constante… Et qu'ainsi tes utilisateurs ne seront pas déçus.
(En outre, la taille du capteur et des pixels a une implication sur le choix et le design de l'objectif. Plus les pixels sont petits, plus ton objectif doit être précis ^^)
PS: Si tu regardes ici, tu constateras une nette différence entre les pixels produits par l'iPhone 5 (qui utilisait la technique de combinaison des pixels), et les pixels produits par l'iPhone 5s :
http://www.anandtech.com/show/7335/the-iphone-5s-review/10.Un seul pixel de l'iPhone 5S (en réalité c'est plus compliqué à cause du dématriçage mais bon…) produit un meilleur résultat que plusieurs pixels de l'iPhone 5
