Un crawler (detto anche web crawlerspider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca.

Hai trovato utile questo articolo?
(votanti: 1 media: 5)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Iscrivi alla Newsletter!