Todd Wilson

President at screen-scraper
Screen-scraper logo

Bei Scraper beschäftigen wir uns seit 2002 mit der Erfassung von Webdaten. Wir sind also schon eine ganze Weile im Geschäft. In dieser Zeit haben wir in so ziemlich jeder Branche gearbeitet, die man sich vorstellen kann, von der Reisebranche bis zum E-Commerce, und wir arbeiten viel mit offiziellen öffentlichen Aufzeichnungen.

Wir sind ein relativ kleines Unternehmen, das hauptsächlich aus Entwicklern und Ingenieuren besteht. Das ist auch mein Hintergrund – ich bin selbst viel im technischen Bereich tätig. Wir haben eigene Produkte für die Datenextraktion und nutzen in erster Linie Webdaten, um unser Scraper-Produkt zu betreiben.

Ein Schwerpunkt unserer Arbeit liegt auf amtlichen Aufzeichnungen, da dies einen Großteil unserer Tätigkeit ausmacht. Gerichtsakten sind von großem Wert. Dabei kann es sich um Urkunden oder lokale Kreisakten handeln. Es können sogar öffentliche Informationen sein, die beispielsweise für Marketingzwecke oder Hintergrundüberprüfungen genutzt werden können.

Bei der Erfassung öffentlicher Webdaten sind Erfahrung und Wissen darüber, wie sich verschiedene Websites verhalten, sowie die Kenntnis unterschiedlicher Muster entscheidend. Was uns meiner Meinung nach für potenzielle Kunden attraktiv macht, ist also unser Fachwissen und die Tatsache, dass wir dies schon länger und besser tun als so gut wie jeder andere.

Ich habe das Gefühl, dass wir sehr erfahren sind und uns mit den verfügbaren Tools bestens auskennen. Der Zugriff auf diese Erkenntnisse und deren Herunterladen von einer Website ist zudem eher eine Kunst als eine Wissenschaft. Wenn man das noch nie zuvor gemacht hat, ist es schwierig, sich ohne Vorkenntnisse daran zu wagen und es einfach so effektiv zu machen.

Das Sammeln von Webdaten und deren Aufbereitung für die interne Analyse ist nicht einfach. Wir tun unser Bestes, um Erkenntnisse für unsere Kunden zu sammeln und zu strukturieren, aber manchmal ergreifen Websites Maßnahmen, um sich vor Denial-of-Service-Angriffen (DDoS) zu schützen.

Um auf die Maßnahmen der Website-Administratoren zu reagieren, müssen wir unsere eigenen Parameter anpassen. Das bedeutet, Millionen von Codezeilen zu schreiben, während wir gleichzeitig die empfangenen Daten strukturieren und auf andere Herausforderungen bei der Datenerfassung achten, die auftreten können. Und so geht es hin und her.

Hier kommt Bright Data ins Spiel. Wenn eine Website Maßnahmen ergreift, um unseren Zugriff zu erschweren, können wir die Plattform von Bright Data nutzen, um die benötigten öffentlichen Webdaten auf die effizienteste, zuverlässigste und flexibelste Weise abzurufen – in der Regel über die Residential-, Datacenter- und Mobile-Netzwerke von Bright Data sowie den Web Unlocker. Diese ermöglichen es uns, die Daten zu recherchieren, zu überwachen und zu analysieren und die wertvollen Erkenntnisse anschließend an unsere Kunden weiterzugeben.

Bright Data ist der Premium-Dienst, was die Erfassung und Optimierung von Webdaten angeht. Es ist, als würde man einen Schalter umlegen. Sie sparen uns so viel Zeit. Anstatt recherchieren, optimieren und Fehler beheben zu müssen, fließen die Daten zu uns wie Wasser. Es ist einfach das Beste, was es gibt – sowohl hinsichtlich des umfangreichen Netzwerks, das es bietet, als auch der Plattform selbst aus technischer Sicht, der APIs, der Flexibilität, die wir haben, und des hervorragenden Kundenservices, den wir erhalten. Es ist einfach das Gesamtpaket.

Mit Blick auf das Jahr 2022 würde es mich überraschen, wenn der Bedarf an Datenerfassung nicht weiter wachsen würde, insbesondere angesichts der zunehmenden Bedeutung von Big-Data-Strategien, die es Unternehmen ermöglichen, Daten zu analysieren, Trends zu erkennen und ihren Gewinn positiv zu beeinflussen.

Der Einstieg ist einfach!

Jetzt ausprobieren