Bienvenue dans le monde magique du HDMI…
Godzil (./12278) :
mais non beaucoup de TV le font par défaut
-"beaucoup de" +"toutes les"
J'ai jamais compris la vraie raison non plus (mais j'ai du lire l'explication plus d'une fois), en tout cas en dehors de cet atroce overscan, tu te tapes en plus tous les filtres d'image moisis par dessus. (La quantité et qualité des filtres étant directement dépendante de la quantité d'€ investis dans la télé)
Maintenant, la théorie veut que les ordinateurs envoient un signal spécial indiquant le type de contenu pour que la TV sache que le périphérique est de type "ordinateur", et qu'elle s'adapte ainsi de manière adéquate. En pratique, peut-être que les PC n'envoient pas le bon signal (Y'a juste des milliers de façons de faire), et la plupart des télés ignorent sans le moindre remords ce signal, de même que l'immense majorité des moniteurs pour PC.
Du coup, faut se réferrer au manuel de la télé pour savoir comment configurer l'entrée HDMI de manière adéquate, pour au mieux désactiver tout traitement du signal (c'est un ordinateur, un signal numérique, y'a rien embellir…), et au pire désactiver l'overscan. (C'est très différent d'un constructeur à l'autre, mais je crois qu'ils restent assez constant sur la durée)
Par exemple, chez Samsung, il faut "nommer"/déclarer l'entrée HDMI comme étant "PC".
Chez les modèles pas trop anciens de Sony, c'est un peu le même genre de manip, déclaration/nommage du périphérique en entrée. Genre tu trouves comment configurer les noms des sources et tu lui dis que c'est "PC"

Aucune idée de si ce sera la même chose chez toi, mais on peut espérer.
(Pour la qualité du HDMI je me souviens de ma superbe expérience où j'ai acheté câble HDMI + adaptateur HDMI pour brancher mon ancien Mac au téléviseur, et où après un certain temps, j'ai fini par revenir sur du bon vieux VGA parce que la télé était pas capable d'utiliser 100% de son Gammut en HDMI alors que tout amrchait nickel en VGA… -_-)