4Fermer6
ZerosquareLe 11/03/2017 à 23:44
Folco (./1) :
bon ok, vous avez la permission de rigoler en grand et de bien vous foutre de moi embarrassed
c'est vrai, c'est vrai ? grin

Folco (./1) :
L'idée, ça serait d'utiliser un programme externe genre wget pour télécharger la page, puis d'extraire le prix (à moins que Qt sache télécharger une page).
wget est une bonne solution si tu es paresseux, sinon ça m'étonnerait beaucoup que personne n'ait déjà développé ça avec Qt (si ce n'est pas supporté de base) smile

Folco (./1) :
- n'y a-t-il pas moyen de récupérer que le fichier htm, et non les 65428682 images qui vont avec ?
Si tu demandes à wget (ou Qt) de te récupérer la page HTML, il ne va te récupérer que la page HTML. C'est ton navigateur qui prend l’initiative de récupérer les autres éléments quand tu enregistres la page (d'ailleurs, avec Firefox, tu peux choisir dans la boîte de dialogue d'enregistrement "Page HTML complète" qui récupère tout, ou "Page HTML seulement" qui ne récupère que le fichier HTML).

Folco (./1) :
- en vrai, quand on est pas un gros porc inculte en web, on fait comment ?
J'imagine qu'ils n'ont pas d'API dédiée pour récupérer leurs données (ça serait trop facile) ?
Cherche "web scraping C++", ça devrait te donner des pistes. Par exemple : http://stackoverflow.com/questions/834768/options-for-web-scraping-c-version-only
Après, pas sûr que ça vaille le coup de sortir une usine à gaz comme ça si une expression régulière, voire une recherche de chaîne suffit pour ton cas grin

(edit : cross, cette fois-ci c'est Zeph qui a posté en premier grin)