/>
Stellen Sie einerseits sicher, dass alle wichtigen Seiten indexiert werden. Gleichzeitig überprüfen Sie, dass keine Seite indexiert ist, für die Sie es nicht wünschen. Sie können die Anzahl der indexierten Seiten in der Search Console überprüfen und mit 'site:yoursite.com' auch Google-Befehle (engl. Google Commands) nutzen, um festzustellen, welche Ihrer Seiten aktuell indexiert sind.
Überprüfen Sie Ihre indexierten Seiten auf doppelte oder irrelevante Inhalte und erarbeiten Sie einen Plan, um die kontraproduktiven Seiten aus der Indexierung zu bekommen. Am besten setzen Sie für die betreffenden Seiten einen 410 Statuscode ein, bis diese aus der Indexierung entfernt wurden.
Überprüfen Sie Ihre Weiterleitungen und stellen Sie sicher, dass Sie die richtigen Statuscodes verwenden. Achten Sie darauf, die Anzahl der Weiterleitungen zu begrenzen, denn wenn ein Großteil der von Google im Crawling erfassten Seiten Weiterleitungen oder gar Weiterleitungsketten beinhalten, wird das die Bewertung Ihrer Seite negativ beeinflussen.
Überprüfen Sie im Zuge Ihres Indexierungsaudits alle Ihre Metas. Fehlen irgendwelche Beschreibungen oder Titel? Sind sie unverwechselbar und ergeben sie alle einen Sinn, indem sie auf für Ihre Gesamtstrategie spezifische Keywords abzielen? Die URL Struktur zu ändern empfiehlt sich nicht, stellen Sie jedoch sicher, dass Ihre URL gut lesbar ist und möglichst wenige Sonderzeichen und Zahlen beinhaltet. Im Idealfall sollte Ihre URL anschaulich und so unverwechselbar wie möglich sein.
Crawling hängt unmittelbar mit Indexierung zusammen. Um die Indexierung anzupassen, beziehungsweise zu optimieren, können Sie Google dabei lenken, wie es beim Crawling auf Ihrer Seite vorgeht.
Das Sitemap leitet Google dabei an, wie das Crawling Ihrer Seite stattfinden soll. Obwohl Google nicht garantiert, dass die Google Bots entsprechend Ihrer Vorgaben arbeiten, ist es trotzdem in den meisten Fällen sehr angeraten, Sitemaps zu verwenden. Darin sind viele nützliche Informationen über jede Seite Ihrer Website enthalten, unter anderem das letzte Änderungsdatum, welche Prioritäten Ihre Website setzt und wie oft sie aktualisiert wird.
Robots erstellen in Abhängigkeit Ihres User Agents Vorgaben dazu, welche Teile einer Seite zugänglich sind. Sicherzustellen, dass Sie die Bots der relevanten Suchmaschinen nicht ausschließen ist daher essentiell.
Sie können den Google Bot auch im Code leiten, indem Sie für jede Seite Tags setzen, die gängigsten sind: follow/ nofollow und index/noindex.
Sie können URLs in der Google Search Console direkt an den Google Index senden. Dies ist besonders hilfreich im Zusammenhang mit Crawling, also wenn Sie sich für bestimmte Seiten eine Vorzugsbehandlung bei Crawling und Indexierung wünschen.
Ein entscheidender Faktor den Crawling und Indexierung gemeinsam haben ist, dass für Webseiten mit vielen Seiten (indexiert oder nicht), der Umfang, in dem die Google Bots bei jedem Besuch auf Ihrer Seite Crawling durchführen, begrenzt ist. Es ist daher wichtig, dass Sie beobachten und gezielt auswählen welche Ihrer Seiten indexiert werden müssen und warum (nicht alle Seiten müssen indexiert werden, vor allem bei sich wiederholenden Inhalten).