Los robots o spiders (un tipo de software) recorren la Web indexando su contenido dentro enormes de bases de datos que se pueden consultar.
Como ningún motor de búsqueda puede abarcar todas las páginas en un sólo día (generalmente todo el proceso tarda varias semanas), cada motor adopta su propia estrategia para calcular la frecuencia de actualización de los sitios.
0 comentarios:
Publicar un comentario