2628Close
ZerosquareOn the 2016-09-30 at 10:49pm
Meowcate (./23) :
Il devrait être permis de demander à ces services d'archivage (chez Google, pour accélérer les résultats, chez Archive.org pour la mémoire du net) de supprimer le contenu pour peu qu'on puisse prouver être le propriétaire de la page.
C'est le cas au moins pour Google (il existe une page spécifique pour ce genre de demandes). Je crois qu'on peut le demander aussi à Archive.org, mais je ne sais pas si c'est automatisé. En dernier recours, tu peux envoyer une notification DMCA au site.
zikzak (./25) :
Ils passent outre le fichier robot.txt tu veux dire ?
Google et Archive.org (et la majorité des moteurs de recherche/indexeurs honnêtes) respectent les directives de robots.txt.
Nhut (./26) :
- indépendant des grosses compagnies informatiques, hard ou soft.
C'est concrètement impossible pour le matériel : il n'y a pas beaucoup de concepteurs de CPUs, et encore moins de fondeurs de silicium (ça coûte une fortune, à tel point que des boîtes qui sont concurrentes entre elles ont été obligées de s'associer pour investir dans des usines de fabrication communes).
Nhut (./26) :
- inviolable
Impossible au sens strict : tous les systèmes de sécurité sont contournables en pratique, pour peu qu'on se donne suffisamment de mal.

Les moyens de sécurité concrètement mis en œuvre dépendent entre autres de :
- la valeur de ce que tu as à protéger
- le niveau et les moyens des adversaires contre qui tu veux te protéger
- les inconvénients que tu peux tolérer (plus c'est sécurisé, plus c'est contraignant à l'usage)
- le contexte global (rien ne sert d'avoir une protection logicielle top-niveau si on peut t'espionner par une fenêtre, ou si quelqu'un peut toucher à ton matériel quand tu n'es pas là)

Flanker peut t'expliquer tout ça bien mieux que moi.
flanker a été invité sur ce sujet.