The_CUrE (./15332) :Bah si, carrément : imagines un mec qui arrive à générer une image chelou (terroriste par ex) qui a la même signature que le dernier album du groupe à la mode... ton spotify/deezer récupère automatiquement l'image, et tu te retrouves sur les fichiers du fbi parce que c'était l'image surveillée (l'autre, mais vu que signature identique ça déclenche l'alerte)
Mais si les collisions se font avec 2 images qui n'ont rien à voir c'est pas un problème?
Zerosquare (./15335) :Le #1 est la raison meme que ca est possible. Et c'est inévitable, sinon #1 n'est pas possible, et a vrai dire les 3 que tu cite sont la meme chose. Que tu parte d'un canvas aléatoire, ou d'un canvas avec une vrai image ne change rien au fuzzing utilisé pour établir un hash similaire. Et le 3eme point est juste l'opposé.
Normal :
#1 - l'existence même de collisions
#2 - le fait que des images proches donnent le même hash ou un hash très peu différent (c'est une feature)
Pas normal :
- pouvoir faire du hachage inverse facilement (créer une image en se basant uniquement sur la valeur du hash à obtenir)
- pouvoir faire du hachage inverse contrôlé facilement (créer une image avec un contenu choisi en se basant uniquement sur la valeur du hash à obtenir)
- pouvoir complètement changer le hash d'une image tout en conservant son contenu
En bref, on peut créer des faux positifs (et les choisir), et aussi des faux négatifs.
vince (./15333) :The_CUrE (./15332) :Bah si, carrément : imagines un mec qui arrive à générer une image chelou (terroriste par ex) qui a la même signature que le dernier album du groupe à la mode... ton spotify/deezer récupère automatiquement l'image, et tu te retrouves sur les fichiers du fbi parce que c'était l'image surveillée (l'autre, mais vu que signature identique ça déclenche l'alerte)
Mais si les collisions se font avec 2 images qui n'ont rien à voir c'est pas un problème?
Zerosquare (./15337) :
Et les faux négatifs sont un problème également si le système est censé servir à quelque chose...
flanker (./15343) :Tu as vu le proof-of-concept ? Il suffit de rajouter une bordure avec des pixels aléatoires. C'est à la portée de n'importe quel codeur en Javascript même inexpérimenté, et une fois mis en ligne ça peut être utilisé facilement par n'importe qui...
Je pense que ceux qui ont les compétences pour modifier les images afin de passer au travers n'utilisent probablement déjà pas iCloud pour les conserver (donc le problème des faux négatifs n'existe pas en réalité : ça ne sert à rien de transformer les images, il suffit de ne pas les mettre sur iCloud).
flanker (./15343) :Non, justement : les exemples montrent qu'il n'y a pas besoin d'avoir l'image originale pour créer des collisions, on peut le faire uniquement sur la base du hash. Pire, on peut contrôler le contenu de l'image pour la faire ressembler à une image légale suffisamment ambiguë : comment la personne qui vérifie peut-elle savoir si c'est une photo librement consentie de quelqu'un de 18 ans, ou une photo volée de quelqu'un de 17 ans ?
Si tu veux construire suffisamment de faux positifs pour déclencher des vérifications manuelles, il faut les originaux (donc manipuler des images pédoporno : personnellement je n'en ai pas et encore moins envie d'en voir), tout ça pour déclencher des vérifications manuelles qui ne donneront rien.
flanker (./15343) :Personne n'a dit qu'ils avaient fait ça pour s'amuser. Il est évident que c'est suite à des demandes gouvernementales. Mais ça reste une solution bancale pour plein de raisons.
Je doute qu'Apple ait travaillé sur un truc aussi compliqué pour s'amuser. Ça sent le compromis trouvé avec un gouvernement pour continuer à faire du chiffrement de bout en bout tout en respectant la loi.
Zerosquare (./15344) :Sérieusement, penses-tu vraiment que quelqu'un va parier de longues années prisons sur le fait qu'un développeur inconnu a fait du bon boulot, alors que ne pas utiliser iCloud est bien plus fiable ?
Tu as vu le proof-of-concept ? Il suffit de rajouter une bordure avec des pixels aléatoires. C'est à la portée de n'importe quel codeur en Javascript même inexpérimenté, et une fois mis en ligne ça peut être utilisé facilement par n'importe qui...
Mais tu oublies un détail : il faut avoir accès au compte iCloud, tu n'y accès pas si facilement maintenant.
Non, justement : les exemples montrent qu'il n'y a pas besoin d'avoir l'image originale pour créer des collisions, on peut le faire uniquement sur la base du hash. Pire, on peut contrôler le contenu de l'image pour la faire ressembler à une image légale suffisamment ambiguë : comment la personne qui vérifie peut-elle savoir si c'est une photo librement consentie de quelqu'un de 18 ans, ou une photo volée de quelqu'un de 17 ans ?
Quant à l'intérêt de faire ça :
- à petite échelle, nuire gravement à une personne. Comme les crétins qui prétendent qu'il y a une prise d'otage chez quelqu'un pour leur faire envoyer les SWAT.
- à grande échelle, jouer au con (on a vu ce dont des forums comme 4chan sont capables), ou noyer le poisson (il y a plus de chances qu'un vrai positif passe à la trappe s'il est entouré de plein de faux positifs).
Zerosquare (./15347) :C'est possible
Bon on ne tombera manifestement pas d'accord, tant pis ^^
Brunni (./15348) :Je pense qu'on n'est qu'au début d'une certaine réglementation de l'informatique, et qu'il y aura certainement des mauvais côtés à ça
Après tu peux voir ça de 2 façons, si ça commence à être installé sur les Macs eux mêmes et contrôler tous les fichiers, c'est un énorme souci. Mais peut être que c'est juste une combine pour pouvoir stockées des données sur un serveur distant, chiffrées de bout-en-bout, en respectant les lois de protection des mineurs toussa.
https://support.apple.com/fr-fr/HT207043 :Donc ce qui t'es arrivé n'est pas du tout normal, tu as une raison légitime de réclamer auprès du SAV.
L’iPhone 11 Pro et l’iPhone 11 Pro Max possèdent un indice de protection IP68 selon la norme 60529 de la Commission électronique internationale (profondeur de 4 mètres jusqu’à 30 minutes).