11Fermer13
geogeoLe 20/02/2004 à 22:54
Mais tu vois ça où que je te demande de me balancer le résultat final, je veux pas d'algos???

Je vais détaillez encore plus loin:

J'exploite l'algorithme de compression LZW, celui-ci demande la création d'un dictionnaire, pour mon cas ce dictionnaire est de taille variable mais par défaut de 8192 éléments plus précisément 8192-259=7933 éléments réellement utilisés.

Chaque éléments que j'appel définitions peuvent contenir une chaîne de caractères de taille maximal de 4096 caractères.

L'algorithme de compression demande la recherche d'une chaîne de caractère nommé tampon dans le dictionnaire et donc si la recherche est réussie de renvoyer l'index où ce trouve la définition. Or le problème de cette algo de compression c'est qua lé recherche d'une définition dans le dictionnaire est très longue et demande une organisation des données pour effectuer la recherche plus rapidement.

J'ai donc décidé d'organiser mon dictionnaire en sommaires, chaque sommaire contient toutes les défintiions commençant par le même caractère cette méthode demande dans mon cas 8 Mo de mémoire avec un dico de 8192 éléments et n'augmente pas assez la vitesse de compression je trouve.

Avant de développer la méthode avec tables de hachages je me demande si s'est réellement utile dans mon cas, vous allez encore me dire que je suis une faigniasse de ne pas la faire mais vous en ferez autant.
Donc je voudrais savoir les avantages entre un ABR et table(s) de hachage(s).