Inblick i fenomenet webbskrapning
SäkerhetsteknikSecurity engineeringDatavetenskapComputer science - informaticsComputer science - generalScrapingCrawlerSpiderSkrapningSpider trapSticky honeypotRobots.txtBotWebbscrapingScraping methods
Föreliggande kandidatarbete har till syfte att undersöka fenomenet Webskrapning.
Webbskrapnings-program (också kända som Web Wanderers, Crawlers, Spiders eller
skrapare) är program som söker igenom webben automatiskt för att extrahera
information från webbsidor.
Ett exempel på web skrapning är när ett företag samlar in data om
prissättningar på en vara eller en tjänst och sen använder informationen för
att producera billigare erbjudanden. Detta ger företaget en fördel så att de
kan fokusera mera på att marknadsföra sin sida/tjänster. Utöver detta så blir
de utsatta företagens servrar också hårt belastade med trafik (skrapning) från
?icke kunder?.
Efter att ha genomsökt både akademiska och allmänna källor via
informationsinsamling, av denna information så dras slutsatsen att man inte
fullt ut kan hindra skrapning av hemsidor. Detta på samma sätt som man inte
fullt ut kan hindra någon IT-attack, det finns inga 100 % vattentäta system. Av
utfallet ifrån informationssökningen var det bara ett akademiskt arbete, av de
hundra, som genomsöktes som hade inriktat sig på att förhindra skrapningsbotar.