Web Scraping (raschiamento del web) o web data extraction (estrazione di dati web) è una tecnica rintracciamento di informazioni da siti web con appositi software automatici che simulano l'esplorazione umana.
Tale sistema utilizzato anche dai motori di ricerca per creare indici di informazioni da rendere disponibili nel motore di ricerca può essere attuato da utenti privati con appositi programmini chiamati bot.
Dato che tali programmi ricercano in modo più efficinte informazioni, la banda dei siti web viene messa a dura prova e per questo alcuni siti internet applicano delle tecniche per combattere rallentare o fermare tali bot.
I Web Scrapers che tratto nel sito sono prinicipalmente scritti in Java e analizzano sia XML che documenti HTML analizzando il DOM della pagina.