Crawlability ist ein grundlegender Aspekt des Technical SEO und bezieht sich auf die Fähigkeit von Suchmaschinen, die Seiten einer Website zu durchsuchen und ihre Inhalte zu verstehen. Das Crawlbudget umfasst die Anzahl der Seiten, die ein Suchmaschinen-Crawler innerhalb eines bestimmten Zeitraums auf einer Website durchsucht. Eine gute Crawlability ist entscheidend dafür, dass Suchmaschinen alle wichtigen Seiten einer Website finden und indexieren können – und damit das zur Verfügung stehende Crawlbudget bestmöglich ausgenutzt wird.
In diesem Artikel erkläre ich dir, was Crawlability und Crawlbudget genau für deine Website bedeuten, warum sie wichtig sind und welche Faktoren sie beeinflussen.
Crawlability beschreibt die Fähigkeit von Suchmaschinen-Crawlern (auch Bots oder Spider genannt), auf die Inhalte einer Website zuzugreifen, sie zu durchforsten und die darin enthaltenen Informationen zu verarbeiten. Ein Suchmaschinen-Crawler ist ein automatisiertes Programm, das das Internet durchsucht, um Webseiten zu entdecken und zu indexieren. Zu den bekanntesten Crawlern gehören Googlebot, Bingbot und Yahoo Slurp.
Nur Seiten, die von Suchmaschinen gecrawlt werden können, werden auch indexiert und können somit in den Suchergebnissen erscheinen. Wenn wichtige Seiten nicht gecrawlt werden können, verlieren sie die Möglichkeit, in den Suchergebnissen gut zu ranken, was zu einem Verlust von Sichtbarkeit und Traffic führt.
In diesem Beispiel hat einer Kunden selbsg Sitemaps bei der Google Search Console hochgeladen und einige Fehler gemacht. Erst nach Jahren nach einem SEO-Audit durch uns wurde die Sitemap in der richtigen Art und Weise hinzugefügt.

Über Duplicate Content ohne Canonical Tags weist auch die Search Console hin. Hier baut der Kunde bereits die Seiten Stück für Stück ab nach Aufdecken durch ein SEO-Audit über uns.

Das Crawlbudget ist ein wichtiger Begriff im Bereich des Technical SEO, der sich auf die Anzahl der Seiten bezieht, die ein Suchmaschinen-Crawler innerhalb eines bestimmten Zeitraums auf einer Website durchsucht. Es steht in direktem Zusammenhang mit der Crawlability einer Website, da ein effizientes Management des Crawlbudgets sicherstellt, dass Suchmaschinen-Crawler die wichtigsten Seiten einer Website finden und indexieren können.
Das Crawlbudget setzt sich aus zwei Hauptkomponenten zusammen:
Ein effizientes Management des Crawlbudgets ist entscheidend, weil Suchmaschinen eine begrenzte Anzahl von Seiten pro Website innerhalb eines bestimmten Zeitraums crawlen. Besonders für große Websites oder Websites mit häufigen Aktualisierungen ist es wichtig, dass die relevantesten Seiten priorisiert werden. Ein ineffizientes Crawlbudget kann dazu führen, dass wichtige Seiten nicht gecrawlt oder indexiert werden, was negative Auswirkungen auf die Sichtbarkeit in den Suchmaschinen hat.
Das obere Projekt weist bereits über 1.200 Duplicate Seiten auf, die das Crawlbudget unnütz beanspruchen. Schlimmer noch ist der Einfluss der 404-Seiten, die die Search Console erfasst. Bei dieser hohen Anzahl wird schnell deutlich, dass viele irrelevante Seiten gecrawlt werden und so das Crawlbudget sehr ineffizient genutz werden. Siehe hier:

Es gibt zwei ganz praktische Ansätze, um sowohl die Crawlability als auch das Crawlbudget zu verbessern:
1. Optimierung der Crawlability zur Maximierung des Crawlbudgets durch Vermeidung von Duplicate Content und Verbesserung der internen Verlinkung.
Doppelter Content verschwendet das Crawlbudget, da Crawler dieselben Inhalte mehrfach durchforsten. Durch den Einsatz von Canonical Tags und die Vermeidung redundanter Seiten kann das Crawlbudget effizienter genutzt werden. Eine gut strukturierte interne Verlinkung hilft Suchmaschinen-Crawlern, die wichtigsten Seiten schnell zu finden und zu durchsuchen. Dies stellt sicher, dass das Crawlbudget nicht für unwichtige oder schwer zugängliche Seiten verschwendet wird.
Technische Fehler wie 404-Seiten oder langsame Ladezeiten können das Crawling behindern und das Crawlbudget ineffizient nutzen. Regelmäßige Überprüfungen und Optimierungen der Website-Performance sind daher für deinen Erfolg entscheidend.
2. Effizientes Management des Crawlbudgets zur Verbesserung der Crawlability
XML-Sitemaps helfen Suchmaschinen, die wichtigsten Seiten einer Website zu finden und zu priorisieren. Dies trägt dazu bei, dass das Crawlbudget effizient genutzt wird und die wichtigsten Inhalte gecrawlt werden. Durch die richtige Konfiguration der robots.txt-Datei können unnötige Seiten vom Crawling ausgeschlossen werden, sodass das Crawlbudget auf die relevanten Seiten konzentriert wird. Auch verbessern regelmäßige Aktualisierungen und das Zusammenführen ähnlicher Seiten die Relevanz und Aktualität der Inhalte, was wiederum die Crawl-Nachfrage erhöht und das Crawlbudget effizienter nutzt.
Führe regelmäßige Überprüfungen durch, um Crawling-Hindernisse wie 404-Fehler, langsame Ladezeiten und andere technische Probleme zu identifizieren und zu beheben.
Die Serverantwortzeiten und die Performance einer Website haben einen direkten Einfluss auf das Crawlbudget. Eine langsame Website kann das Crawlbudget negativ beeinflussen und somit die Effizienz der Indexierung durch Suchmaschinen verringern.
Die Serverantwortzeit ist die Zeit, die ein Webserver benötigt, um auf eine Anfrage eines Benutzers oder Suchmaschinen-Crawlers zu reagieren. Sie ist ein wichtiger Indikator für die Performance einer Website und kann die Crawlrate beeinflussen.
Du findest Angaben zu deiner durchschnittlichen Serverantwortzeit in der Google Search Console unter Einstellungen => Crawlingstatistiken. Hier ist ein Beispiel mit einer sehr guten durchschnittlichen Serverantwortzeit:

Was kannst du also tun? Klar, die Ladezeiten verbessern und die Serverlast reduzieren! Websites, die schnell laden, ermöglichen es Suchmaschinen-Crawlern, mehr Seiten in kürzerer Zeit zu durchsuchen. Dies maximiert das Crawlbudget und stellt sicher, dass wichtige Seiten gecrawlt und indexiert werden. Eine gut optimierte Website reduziert die Serverlast und sorgt dafür, dass Suchmaschinen-Crawler effizient arbeiten können, ohne die Serverperformance zu beeinträchtigen. Dies führt zu einer besseren Nutzung des Crawlbudgets.
Eine schnelle und reibungslose Benutzererfahrung erhöht die Verweildauer der Benutzer und senkt die Absprungrate. Suchmaschinen berücksichtigen diese Faktoren bei der Bewertung der Relevanz und Qualität einer Website, was sich positiv auf das Ranking auswirken kann.
Google selbst meint in seinem Hilfeartikel zum Crawl-Budget: Wenn die Website eine Zeit lang sehr schnell reagiert, wird die Begrenzung erhöht, sodass mehr Verbindungen für das Crawling verwendet werden können. Falls die Website langsamer wird oder mit Serverfehlern antwortet, verringert sich die Begrenzung und der Googlebot crawlt weniger.
Hier ist noch ein anderer Screenshot aus einem anderen Projekt. Der Wert der Serverantwortzeit beträgt über 800. Das ist fast schon unglückliche Normalität, so unsere Beobachtung. Viele Projekte schaffen kaum durchschnittliche Werte unter 500. Unser persönlich erreichter Tiefstwert war mit TutKit.com 249, wobei wir noch ein Shopify-Projekt kennen, das diesen Wert nach unten toppen konnte. Respekt!

Stellst du bei dir einen relativ hohen Wert bei den Serverantwortzeiten fest, kannst du einige praktische Maßnahmen zur Optimierung der Serverantwortzeiten und der Website-Performance vornehmen:
Gerade der letzte Punkt hat in einem unserer Kundenprojekte den Flaschenhals gelöst. Im Juni wurden in diesem Projekt die Probleme rund um Core Web Vitals gelöst und am Anfang Juli erfolgte der Serverwechsel mit einem ordentlichen Upgrade auf ein modernes Setup und guter Leistung. Auf einmal ging es schlagartig nach oben.

Trotz aller Bemühungen können manche Seiten Schwierigkeiten bei der Crawlability haben. Hier sind einige häufige Probleme und mögliche Lösungsansätze:
Problem: Eine falsch konfigurierte robots.txt-Datei kann Suchmaschinen-Crawler daran hindern, wichtige Seiten zu durchforsten.
Lösung: Überprüfe die robots.txt-Datei, um sicherzustellen, dass keine relevanten Seiten versehentlich ausgeschlossen werden. Verwenden Sie das Robots.txt-Tester-Tool von Google.
Problem: Ohne eine oder mit einer fehlerhaften XML-Sitemap kann es für Suchmaschinen schwierig sein, alle Seiten einer Website zu entdecken. Siehe Beispielscreenshot oben.
Lösung: Erstelle und übermittele eine vollständige XML-Sitemap an die Google Search Console. Und achte auf die Verifzierung der Korrektheit. Aktualisiere diese regelmäßig.
Problem: Seiten, die viele Klicks von der Startseite entfernt sind, werden möglicherweise nicht gecrawlt. Siehe auch Screenshot von oben aus Audisto. Die meisten Seiten lagen auf der Ebene 6 bis 8.
Lösung: Optimieren Sie die interne Verlinkung, um sicherzustellen, dass alle wichtigen Seiten in wenigen Klicks erreichbar sind.
Problem: Doppelte Inhalte können dazu führen, dass Suchmaschinen Schwierigkeiten haben, die relevanteste Version einer Seite zu identifizieren.
Lösung: Verwenden Sie Canonical Tags, um die Hauptversion einer Seite zu kennzeichnen, und vermeiden Sie doppelten Content.
Problem: Broken Links und fehlgeleitete Weiterleitungen können den Crawl-Prozess behindern.
Lösung: Nutzen Sie 301-Weiterleitungen für dauerhaft verschobene Inhalte und vermeiden Sie 302-Weiterleitungen für dauerhafte Änderungen. Überprüfen Sie regelmäßig auf Broken Links.
Problem: URLs mit vielen Parametern können für Suchmaschinen schwer zu durchforsten sein. Das ist gerade bei Shopseiten oft der Fall, die beispielsweise Varianten (in Gewicht, Größe, Farbe etc. über Parameter ausgeben) für Produkte haben
Lösung: Verwende URL-Parameter nur, wenn sie unbedingt erforderlich sind, und strukturiere URLs möglichst einfach und lesbar.
Problem: Serverfehler wie 5xx-Fehler können dazu führen, dass Suchmaschinen-Crawler die Seiten nicht erreichen können.
Lösung: Überwache die Serverleistung und behebe auftretende Fehler umgehend. Stelle sicher, dass dein Server eine hohe Verfügbarkeit hat.
Das Crawlbudget ist ein Faktor, den du kennen solltest für die effiziente Indexierung und Sichtbarkeit einer Website in den Suchmaschinen. Durch die Optimierung der Crawlability und das effiziente Management des Crawlbudgets kannst du als Website-Betreiber sicherstellen, dass deine wichtigsten Seiten regelmäßig gecrawlt und indexiert werden. Dies führt zu einer besseren Sichtbarkeit in den Suchmaschinen und letztlich zu mehr organischem Traffic und einer besseren Benutzererfahrung.
Die Serverantwortzeiten und die Performance einer Website spielen eine entscheidende Rolle für die effiziente Nutzung des Crawlbudgets. Langsame Serverantwortzeiten und eine schlecht optimierte Website können das Crawlbudget ineffizient machen und die Anzahl der gecrawlten Seiten reduzieren. Durch die Optimierung der Ladegeschwindigkeit, die Implementierung von Caching-Strategien und die Reduzierung von HTTP-Anfragen kann die Performance der Website verbessert werden. Dies führt zu schnelleren Serverantwortzeiten, einer effizienteren Nutzung des Crawlbudgets und letztendlich zu einer besseren Sichtbarkeit und Benutzererfahrung.
Eine gute Crawlability ist die Grundlage für eine erfolgreiche Indexierung und Sichtbarkeit in den Suchmaschinen. Durch die Umsetzung der beschriebenen Maßnahmen kann sichergestellt werden, dass Suchmaschinen-Crawler alle wichtigen Seiten einer Website finden und indexieren können. Dies verbessert nicht nur das Ranking in den Suchergebnissen, sondern auch die Benutzererfahrung und die allgemeine Leistung der Website.
Um mit den Worten von Google selbst zu schließen: Eine schnellere Website ist nutzerfreundlicher und ermöglicht gleichzeitig eine höhere Crawling-Frequenz. Für den Googlebot ist eine schnelle Website ein Zeichen für gut funktionierende Server. So kann er mehr Inhalte über die gleiche Anzahl von Verbindungen abrufen.
Hast du sehr viele Seiten auf deiner Website aber zu viele sind nicht gecrawlt oder indexiert, melde dich bei uns. Wir können dir helfen!