Ein Crawler (engl. Kriecher, Kriechtier), auch Webcrawler, ist eine Software, die das Internet anhand von Indexeinträgen nach neuen Webseiten oder bestimmten Informationsinhalten durchsucht und analysiert. Zudem werden RSS-Newsfeed sowie Email-Adressen erfasst. Crawler werden vorzugsweise von Suchmaschinen eingesetzt, um ihren Datenbestand zu erweitern. Dabei gehen Crawler sich ständig wiederholenden Aufgaben nach und arbeiten sich weitestgehend autonom durch alle Seiten im Internet, die miteinander verbunden sind. (siehe: Robot)
Rufen Sie uns an und sprechen Sie mit Ihrem persönlichen Ansprechpartner über Ihr Projekt.
+49 (0) 5221 - 34 25 6 - 0
Oder schreiben Sie uns!