Récupération donnée
Un fournisseur vient de mettre a jour son site avec une nouvelle gamme de produit. Nous avons donc besoin de récupérer les références et les images de chacun des produits de la nouvelle gamme.
Télécharger l'ensemble des images d'une page internet
Pour se faire, j'ai étudié l'architecture du site en question, voici ce que j'en est retenu : Il y a 250 nouveaux produits, donc 250 référence à récupérer et 250 images à télécharger. Chaque image est stockée sur le serveur dans le même dossier (ttp:// ttp:// Chaque produit à une référence (les références des produits ne se suivent pas) et l'image correspondant au produit porte comme nom le numéro de la référence (Ex : 3014.jpg) Dans le code source de la page Web, la référence de chaque produit est encadrées par le code suivant : Ref : XXXXX
J'ai donc décidé de récupérer les 250 références grâce à un script en php : <?php $source preg_match_all ("! Réf : (.*?) !i", $source, $recuplibelle,PREG_PATTERN_ORDER); for ($j = 0; $j < (count($recuplibelle[0])); $j++) { echo ",".$recuplibelle[0][$j]; } ?>
Ce code est composé de 2 parties distinct, tout d'abord la récupération du code source de la page ciblé (ici celle du fournisseur) : $source
Ensuite, avec une expression régulière je repère et stock dans un tableau la référence de chaque produit : preg_match_all ("! Réf : (.*?) !i", $source, $recuplibelle,PREG_PATTERN_ORDER);
Et enfin j'affiche les résultat, grâce à une boucle : for ($j = 0; $j < (count($recuplibelle[0])); $j++) { echo ",".$recuplibelle[0][$j]; }
Une fois les références récupérer je bascule sur le Terminal du Mac et exécute une commande Unix : curl -f -O " Ce code va télécharger les images unes par unes dans le dossier ou je me trouve en exécutant la commande.