Os Web Crawlers, ou apenas crawlers, são programas de computador que navegam pela web de uma forma metódica e automatizada. O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca (ex: Google e Yahoo), usam crawlers para manter uma base de dados atualizada. Estes recursos são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas.