registrieren registriertes Mitglied


Anzeige

Anzeige

Blockierte URLs - Warum?

Alles zu Domain-Umzug, Weiterleitungen und Robots diskutiert Ihr hier.
Sandmanyz
PostRank 1
PostRank 1
Beiträge: 11
Registriert: 23.05.2013, 08:42

Beitrag Sandmanyz » 23.05.2013, 09:02 Blockierte URLs - Warum?

Hallo Zusammen,

in den Google Webmaster Tools steht "Blockierte URLs: 6".

Vorab die Geschichte:
Als die Webseite an den Start ging, war noch ein Fehler in der Robots.txt (15.05.2013). Der Fehler hat dafür gesorgt, dass 9 Seiten blockiert wurden. Ich habe die Robots.txt einen Tag später (16.05.2013) sofort wie folgt geändert.

User-agent: *
Disallow:


Die Robots.txt wurde lt. Webmaster Tools am 21.05.2013 (5 Tage nach Änderung) heruntergeladen. Heute (23.05.2013) steht aber immer noch "Blockierte URLs: 6".
Unter dem Menüpunkt "Status >> Blockierte URLs" habe ich alle Seiten der Webseite getestet. Das Ergebnis war immer "Zulässig für Zeile 2 Disallow:"

Nun die Frage:
Zeigt Google Webmaster Tools es nur verzögert an oder habe ich wirklich ein Problem?

MfG

Anzeige von: