ZerosquareLe 13/02/2012 à 18:50
Oui, c'est une combinaison de plusieurs facteurs.
- parfois ça s'approche du sabotage délibéré, par exemple un compteur d'utilisation qui bloque le produit au bout d'un certain nombre de cycles, même s'il est encore en état de fonctionner. Mais je dirais que ce n'est pas la majorité des cas.
- la recherche de la rentabilité maximum pousse à utiliser les composants les moins chers possibles, donc généralement les moins durables.
- idem pour la qualité de fabrication : en faisant fabriquer par des gens payés peanuts, il ne faut pas s'attendre à des miracles.
- la sortie de plus en plus fréquente de nouveaux produits se fait au détriment de la qualité du développement : si un produit est bourré de défauts à sa sortie (du bug mineur jusqu'au truc qui nécessite un retour en atelier), ce n'est pas forcément parce que les concepteurs sont des branques, généralement c'est plutôt qu'on leur a demandé de torcher en 4 mois quelque chose qui nécessiterait 6 mois pour être bien fait.
- les composants contrefaits (et médiocres) sont de plus en plus répandus, même un fabricant honnête peut être victime d'un fournisseur peu scrupuleux.
La complexité, c'est un vrai-faux problème : oui les produits sont de plus en plus complexes, mais en y mettant les moyens suffisants on sait faire des systèmes complexes et fiables (pensez à l'aviation), et de l'électronique bien faite peut être plus fiable que son équivalent mécanique.
Au final la non-fiabilité prévaut à la fois à cause de la concurrence (un produit de meilleure qualité sortirait plus tard et serait plus cher que les autres, donc il se vendrait moins) mais aussi parce que ça arrange les entreprises (des composants pas chers, des cycles de développement courts, et le consommateur qui rachète quand le produit tombe en panne, ben ça fait des profits en plus)