Kochise (./15870) :
Statistique ? Genre le gars qui arrête pas de te pinguer ou qui effectue des requêtes tellement lentes juste pour garder une connexion ouverte, ben tu le vires au bout de je sais pas, 5 sec de timeout. S'il revient, tu le vires direct. Y'a un schéma pour le DDoS, suffirait jusqte de le détecter pour le virer de suite et garder des connexions libres pour les "gentils"...
C'est pratiquement infaisable :
-> faire ça implique qu'à chaque connexion tu ménorises des choses. Ça va faire le jeu de l'attaquant, qui va cramer tes ressources á vitesse grand V
-> même si tu y parvenais, comment tu les vires ? avec une règle sur le firewall ? La plupart des firewalls professionnels sont limités au mieux à quelques milliers de règles, souvent moins. Avec des attaquants arrivant de partout, on peut pas factoriser les règles.
-> même si tu avais un nombre de règles illimitées, le principal facteur limitant d'un firewall d'un gros site, c'est son CPU (et ses logiques câblées). À chaque règle supplémentaire tu augmentes la consommation CPU du filtrage d'un paquet. Pas convaincu non plus que ça soit une bonne solution pour gérer, justement, un pic de paquets.
Enfin même si tu pouvais faire tout ça, il reste un problème : que fait un utilisateur lambda quand le site ne répond pas ?
Réponse : il réessaie.
On pourrait même dire que plus accéder au site est important pour lui, plus il va insister.
Du coup différencier le comportement d'un client légitime et d'un bot, c'est en fait assez difficile dès lors que le nombre de bots est élevé.
Zerosquare (./15871) :
Partant de là, il doit y avoir le moyen de remonter la piste.
Oui. Le problème ici n'est pas technique. Le problème c'est que quand la piste commence à pointer vers plusieurs dizaines de milliers de personnes, t'es sacrément dans la merde.
Même dans une stratégie de l'exemple, il y a assez peu de moyen juridique : la piste n'est pas fiable, et même si on trouve le soft installé ça ne prouve ni qu'il aie été utilisé sciemment, ni qu'il aie été utilisé pour l'attaque sur laquelle tu enquétes.
Zeph (./15880) :
le flood par HTTP utilise un user-agent quasi constant, donc ça doit pas être bien compliqué de s'en protéger
C'est déjà trop tard en fait. Analyser les en-têtes ça suppose une consommation de ressources bien trop élevée : ouvrir la connexion, allouer les ressources, fork()er un nouveau processus, parser l'en-tête... le matcher à une black-list...
Un bon DDoS arrive à mettre parterre un firewall matériel filtrant au niveau IP.