XML Sitemap Generator

Der Sitemap Generator besucht Ihre Website mit einem automatisierten Crawler der alle Unterseiten in einer XML Datei speichert. Die erstellte Sitemap kann anschließend in der Google Search Console eingereicht werden. Dadurch werden bestehende und neue Inhalte schneller von Google gefunden und in den Suchindex aufgenommen.

Die hier verfügbare Version des Sitemap Generators ist auf 500 Unterseiten einer Website limitiert. Sollten Sie größere Projekte mithilfe des Sitemap Generators Indexieren lassen wollen, melden Sie sich bitte direkt bei mir. Abseits der Erstellung von XML Sitemaps können mithilfe von Crawlern auch weitere Informationen verarbeitet werden. Auf Wunsch können z.B. gezielt Informationen ausgelesen und aufbereitet werden. Weitere Informationen zu meinen Angeboten rund um die Entwicklung von Crawlern finden Sie unter „Crawler und Bot-Entwicklung“

XML Sitemap Generator

Weitere Einstellungen
Sitemap Einstellungen
Link Einstellungen
Query-Links verfolgen
Warte auf Eingabe ...
Gefundene URLs
0
Besuchte Links
0
Tote Links
0

XML Sitemap Generator Anleitung

  1. Tragen Sie die komplette Adresse der Website ein für die Sie eine XML Sitemap erstellen lassen wollen. Wie im Eingabefeld vorgezeigt sollte die Adresse dabei mit dem Schema sowie der Domain angegeben werden „https://www.example.com".
  2. Auf Wunsch können Sie dem Crawler vor dem Start einige Einstellungen mit auf den Weg geben. Klicken Sie hierfür auf den Button "Weitere Einstellungen". Neben allgemeinen Optionen können an dieser Stelle auch ausnahmen für den Crawler definiert werden. Weitere Informationen erhalten Sie in der Beschreibung zu den jeweiligen Einstellungen.
  3. Durch einen Klick auf den Button „Sitemap Erstellen“ startet der Crawler mit seiner Arbeit. Weitere Details werden Ihnen anschließend in der Infobox angezeigt. Nachdem der Crawler seine Arbeit verrichtet hat, wird Ihnen ein Link zum Download angezeigt.
  4. Die erstellte Sitemap kann anschließend auf Ihrem Webspace oder Server hochgeladen und in den Google Webmaster Tools eingetragen werden.

XML Sitemap Generator Infos

Technische Details

Der XML Sitemap Generator basiert auf einen in Python entwickelten Scripts das automatisiert die gewünschte Website besucht und anschließend damit beginnt alle Links auf der Website zu extrahieren. Unterseiten werden erst in die Sitemap aufgenommen wenn der Crawler die jeweilige Seite besuchen konnte. Sollte die Unterseite über die robots.txt ausgeschlossen sein oder der zurückgegebene HTTP Status Code nicht 200 lauten wird die URL nicht in die Sitemap aufgenommen.

Vor dem eigentlichen Besuch der zu crawlenden Website ruft der Crawler die robots.txt der Domain auf. Ausnahmen die in dieser Datei für Crawler definiert sind werden ausgelesen und anschließend für die Erstellung der Sitemap berücksichtigt. Neben ausgeschlossenen Unterseiten wird über die robots.txt auch die Crawling Geschwindigkeit definiert. Sollte die angegebene Website in der robots.txt keine Crawling Geschwindigkeit spezifiziert haben, arbeitet der Crawler automatisch mit einem Crawl-Delay von 1 Sekunde.

Limitierungen

Der Sitemap Generator ist auf 500 Seitenaufrufe limitiert. Websites die mehr Unterseiten besitzen werden somit nicht komplett indexiert. Sollten Sie einen XML Sitemap Generator für größere Projekte benötigen, wenden Sie sich einfach direkt an mich. Auf Wunsch können auch spezialisierte Crawler entwickelt werden, die komplett auf Ihre Anforderungen zugeschnitten sind.

Der Crawler unterstützt in dieser frei zugänglichen Version keine dynamischen Inhalte die erst nach dem erfolgreichen Aufruf einer Seite per JavaScript nachgeladen werden. Links die in dynamisch geladenen Inhalten angezeigt werden, sind für den Crawler also unsichtbar. Sollten Sie einen Crawler für dynamische Websites benötigen, melden Sie sich einfach bei mir für weitere Informationen

FAQ:

Warum werden bei meiner Website weniger als 500 Seiten in der Sitemap ausgewertet?
Der Crawler zählt jede HTTP Anfrage. Sollte auf Ihrer Website z.B. ein Link zu einem Bild zu finden sein welches über ein PHP Script maskiert wurde (wie etwa file.php?image=logo.jpg) verfolgt der Crawler den Link, setzt den Crawl Counter höher, speichert den Link aber nicht in die Sitemap da es sich nicht um eine Unterseite mit Inhalten handelt. Es empfiehlt sich in diesem Fall eine URL Ausnahme zu definieren. Dadurch verfolgt der Crawler alle Links die z.B. „file.php“ im Dateinamen haben nicht weiter.

Der Crawler startet nicht und zeigt „Auftrag eingereiht, warte auf freien Crawler-Slot“
Manchmal kommt es vor das viele Besucher gleichzeitig auf den XML Sitemap Generator zugreifen. Um den Server nicht zu überladen wird nur eine begrenzte Anzahl an Crawlern gleichzeitig ausgesendet. Wenn Ihnen die Meldung „Auftrag eingereiht“ angezeigt, wurde Ihr Crawl-Auftrag erfolgreich übermittelt und wartet auf einen freien Crawler. Lassen Sie in diesem Fall einfach die Seite geöffnet, in der Regel sollte der Auftrag innerhalb von wenigen Minuten automatisch starten.

Der Crawler zeigt mir eine Fehlermeldung an und erstellt keine Sitemap
Manchmal kann es vorkommen, dass der Crawler auf ein Problem stößt und den Besuch Ihrer Website abbricht. Sollte der Sitemap Generator mit einer von Ihnen angegebenen Website nicht zurechtkommen, melden Sie sich einfach über das Kontaktformular. Bitte geben Sie in Ihrer Nachricht den Link zur Website an, die vom Crawler nicht korrekt besucht wird. Anschließend kann ich den Fehler analysieren und ggf. beheben. Bitte beachten Sie, dass der XML Sitemap Generator in der hier vorliegenden Version kostenlos nutzbar ist und dadurch keine Garantie besteht, dass der Generator auch in Ihrem Fall einwandfrei funktioniert.

Nachricht wird gesendet...

Kontaktformular

Ihre Daten werden ausschließlich zur Bearbeitung Ihrer Anfrage verarbeitet. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung

Direkt

office@osulzer.at
+43 660 370 3392
Bürozeiten:
Montag - Freitag: 9 - 19 Uhr
Samstag: 9 - 16 Uhr

Im Notfall auch am Wochenende erreichbar

Melde an...

Login

Passwort vergessen?

Cookie Einstellungen

Sie haben die Möglichkeit Cookies zu deaktivieren die nicht unbedingt von dieser Website benötigt werden.

Benötigte Cookies

Diese Seite nutzt Cookies um die Nutzererfahrung zu verbessern, Funktionen bereitzustellen und um die allgemeine Sicherheit für Besucher und Kunden zu verbessern. Diese Option ist für die Funktionstüchtigkeit unserer Website erforderlich und kann deshalb nicht deaktiviert werden.
Details
"osulzer_session" Das Session Cookie speichert wichtige Einstellungen die Sie während des Besuchs auf dieser Seite treffen. Dieses Cookie speichert keine persönlichen Daten und wird nicht für statistische Zwecke eingesetzt.
"XSRF-TOKEN" Für Ihren Besuch wird Ihnen ein einzigartiger temporärer Sicherheitsschlüssel zugewiesen der bei Eingabefeldern (Kontaktformular, Kommentarformular) abgefragt wird. Dies erhöht die Sicherheit aller Anfragen.
"osulzer_cookie_consent" Speichert Ihre Privatspähre-Einstellung zu optionalen Cookies auf dieser Website

Analyse und Benutzerfreundlichkeit

Um Besucherzahlen auf unserer Website analysieren zu können nutzen wir das Analyse-Tool Matomo. Dieses Tool erzeugt Cookies die dabei helfen das Besucherverhalten zu analyiseren. Dadurch ist es uns möglich den Aufbau unserer Seite zu optimieren und wichtige Informationen schneller und besser zur Verfügung zu stellen. Alle erhobenen Statistiken werden anonymisiert abgespeichert.
Details
"_pk_id.***", "_pk_ses***", "PIWIK_SESSID" Die folgenden Cookies werden gesetzt um Ihren Besuch auf dieser Website statistisch auswerten zu können. Ihre IP-Adresse wird dabei anonymisiert und ist dadurch nicht mit Ihnen in Verbindung zu bringen. Als Beispiel, die IP-Adresse 192.168.10.155 wird anonymsiert indem die letzten 2 bytes maskiert werden. Die IP-Adresse wird in unserem System also als 192.168.xxx.xxx gespeichert.