15337Fermer15339
GodzilLe 19/08/2021 à 20:32
Zerosquare (./15335) :
Normal :
#1 - l'existence même de collisions
#2 - le fait que des images proches donnent le même hash ou un hash très peu différent (c'est une feature)

Pas normal :
- pouvoir faire du hachage inverse facilement (créer une image en se basant uniquement sur la valeur du hash à obtenir)
- pouvoir faire du hachage inverse contrôlé facilement (créer une image avec un contenu choisi en se basant uniquement sur la valeur du hash à obtenir)
- pouvoir complètement changer le hash d'une image tout en conservant son contenu
Le #1 est la raison meme que ca est possible. Et c'est inévitable, sinon #1 n'est pas possible, et a vrai dire les 3 que tu cite sont la meme chose. Que tu parte d'un canvas aléatoire, ou d'un canvas avec une vrai image ne change rien au fuzzing utilisé pour établir un hash similaire. Et le 3eme point est juste l'opposé.

Etrangement les reseau de neurones sont particulièrement bien adapté pour ce genre de choses de par leu coté fuzzy, et entre autre des reseau de type GAN a chercher a minimiser un facteur qui la est arriver au meme hash.

En bref, on peut créer des faux positifs (et les choisir), et aussi des faux négatifs.

C'est tout le problème de ce type de hachage et il n'y a pas grand chose qu'on peux faire contre.
Ca rebidden en fait a la meme chose que les image "adversarial" :

image.jpg?quality=80&width=1312

(image tirée d'ici:
Hacking the Brain With Adversarial ImagesIEEE SpectrumResearchers from Google Brain show that adversarial images can trick both humans and computers, and the implications are scary
)