Hippo> justement, non : j'ai bien précisé qu'aucun algo de détection de "triche" ne pouvait être parfait... Et ce n'est pas du tout un pb du même ordre que la sécurité : théoriquement, un système peut être totalement infaillible au niveau sécurité. En pratique, il y a p-ê des petits pbs qui font qu'un projet a tjs des petites failles si on cherche bien, mais ce sont des failles qui peuvent être corrigées, et au bout de la version 59.0 les éventuels bugs restants seront hyper durs à trouver. Pour ce qui est des moteurs de recherche, le pb est entièrement différent : le moteur "parfait" qui filtre uniquement le contenu pertinent n'existe pas. On peut essayer de s'en rapprocher un petit peu, mais la différence fondamentale, c'est qu'il restera _toujours_ des grosses failles. Avec un moteur closed-source style Google, ce n'est pas évident de trouver ces failles; qui plus est, il y a la menace "si vous essayez de pousser notre crawler dans ses retranchements, on vous bannira à jamais de l'index google", et ça, ça doit être assez méchamment dissuasif... Pour un moteur open-source, les failles sont bien plus faciles à trouver -- et même probablement, il suffit d'aller dans le bugzilla pour voir quelles sont les failles exploitables. Et, contrairement à un serveur Apache, qui dit faille trouvée ne dit pas faille corrigée, ou alors ça créera pleins d'autres failles et on sera loin de converger vers une solution optimale, comme tu le sous-entends...
« The biggest civil liberty of all is not to be killed by a terrorist. » (Geoff Hoon, ministre des transports anglais)