Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Aktuell haben wir die Seiten auf noindex. Das Problem ist, dass Google diese natürlich dennoch crawlt und dadurch unnötig viel Crawlingbudget verbraucht.arnego2 hat geschrieben:Sich an den großen Webseiten zu orientieren halte ich nicht für eine gute Idee.
Wie hast du es denn jetzt?
Wir haben die Seiten nicht über robots.txt für das Crawling ausgeschlossen sondern per meta rorbots auf noindex.follow gesetzt.HerrHerrmann hat geschrieben:Nur der Vollständigkeit halber: der Robots Meta Tag sagt noindex oder sind die Seiten über die robots.txt gesperrt?
Viele Grüße
Genau so!Thomas H hat geschrieben: Ich rate deshalb dazu, zumindest die Filter, die besonders viele URLs generieren oder sehr irrelevant sind (und dadurch intern & extern nicht weiter verlinkt sind) per robots.txt für den Bot zu sperren, damit er nicht in der Masse der URLs absäuft. Gute XML Sitemaps und eine Steuerung des Filter-Crawlings per URL-Parameter in der Search Console helfen da auch etwas.
Hast du denn internationale Seiten mit gleichen Inhalt, dass du das hreflang-Attribut benötigst?nanos hat geschrieben:... Nur noch eien letzte Frage: Würdet ihr auf Noindex-Seiten (z.B. Pagnation) auch einen hreflang einbinden oder gehört er dort nicht hin ?