Definition von Spider-und Web-Crawler

Spiders & Web Crawler: Was Sie wissen müssen, um Website-Daten zu schützen

Spider sind Programme (oder automatisierte Skripte), die im Internet nach Daten suchen. Spinnen reisen durch Website-URLs und können Daten von Webseiten wie E-Mail-Adressen abrufen. Spinnen werden auch verwendet, um Informationen, die auf Websites gefunden werden, an Suchmaschinen zu übermitteln.

Spinnen, die auch als "Web-Crawler" bezeichnet werden, durchsuchen das Web und nicht alle sind in ihrer Absicht freundlich.

Spammer-Websites, um Informationen zu sammeln

Google, Yahoo!

und andere Suchmaschinen sind nicht die einzigen, die am Crawlen von Websites interessiert sind - also auch Betrüger und Spammer.

Spider und andere automatisierte Tools werden von Spammern verwendet, um E-Mail-Adressen (im Internet wird diese Praxis oft als "Ernten" bezeichnet) auf Websites zu finden und diese dann zum Erstellen von Spam-Listen zu verwenden.

Spiders sind auch ein Tool, das von Suchmaschinen verwendet wird, um mehr Informationen über Ihre Website zu erhalten, aber nicht aktiviert. Eine Website ohne Anweisungen (oder "Berechtigungen") zum Crawlen Ihrer Website kann zu erheblichen Informationssicherheitsrisiken führen. Spinnen reisen durch das Folgen von Links und sind sehr geschickt darin, Links zu Datenbanken, Programmdateien und anderen Informationen zu finden, auf die sie keinen Zugriff haben sollten.

Webmaster können Protokolle anzeigen, um zu sehen, welche Spider und andere Robots ihre Sites besucht haben. Diese Informationen helfen Webmastern zu wissen, wer und wie oft ihre Website indexiert.

Diese Informationen sind nützlich, da Webmaster ihre SEO optimieren und robot.txt-Dateien aktualisieren können, um zu verhindern, dass bestimmte Robots ihre Website in Zukunft crawlen.

Tipps zum Schutz Ihrer Website vor unerwünschten Roboter-Crawler

Es gibt eine ziemlich einfache Möglichkeit, unerwünschte Crawler von Ihrer Website fernzuhalten. Selbst wenn Sie sich keine Gedanken darüber machen, dass bösartige Spider Ihre Website crawlen (die Verschleierung der E-Mail-Adresse schützt Sie nicht vor den meisten Crawlern), sollten Sie den Suchmaschinen dennoch wichtige Anweisungen geben.

Alle Websites sollten eine Datei im root-Verzeichnis namens robots.txt-Datei haben. Mit dieser Datei können Sie Web-Crawler anweisen, wo sie nach Indexseiten suchen sollen (sofern in den Metadaten einer bestimmten Seite nicht anders angegeben, als wenn sie eine Suchmaschine sind).

Genauso wie Sie den gewünschten Crawlern mitteilen können, wo Sie sie durchsuchen möchten, können Sie ihnen auch sagen, wohin sie nicht gehen können, und sogar bestimmte Crawler von Ihrer gesamten Website blockieren.

Es ist wichtig zu bedenken, dass eine gut zusammengestellte robots.txt-Datei einen enormen Wert für Suchmaschinen hat und sogar ein Schlüsselelement zur Verbesserung der Leistung Ihrer Website sein könnte, aber einige Roboter-Crawler werden Ihre Anweisungen immer noch ignorieren. Aus diesem Grund ist es wichtig, dass alle Ihre Software, Plugins und Apps immer auf dem neuesten Stand sind.

Verwandte Artikel und Informationen

Aufgrund der Verbreitung von Information Harvesting zu ruchlosen (Spam-) Zwecken wurden 2003 Gesetze erlassen, um bestimmte Praktiken illegal zu machen. Diese Verbraucherschutzgesetze fallen unter das CAN-SPAM Act von 2003.

Es ist wichtig, dass Sie sich die Zeit nehmen, sich über den CAN-SPAM-Act zu informieren, wenn Ihr Unternehmen Massenmails oder Informationsbeschaffung betreibt.

Sie können mehr über Anti-Spam-Gesetze und den Umgang mit Spammern herausfinden und was Sie als Geschäftsinhaber nicht tun können, indem Sie die folgenden Artikel lesen: