Beitragnonorush » 06.07.2017, 13:39 "Disallow" Problem bei Clean URLs
Ich habe folgendes Problem...
ich habe in der robots.txt folgende URL ausgeschlossen:
Disallow: /DLW-Uni-Walton-Linoleum-pompeji-red
Jetzt gibt es das gleiche Produkt wieder mit fast der selben URL nur das diese am Ende noch ein Anhang hat.
DLW-Uni-Walton-Linoleum-pompeji-red-LPX-25-mm
Das Problem ist das meine Eintragung in der robots.txt logischerweise auch die neue URL blockiert, ich aber keine Lösung finde es anders zu schreiben. Hätten meine URLs immer eine Dateiendung (html) wäre es kein Problem aber so bin ich echt ratlos.
Beitragmwitte » 12.09.2017, 14:32 "Disallow" Problem bei Clean URLs
Mal ne blöde Frage.
Du schreibst "Jetzt gibt es das gleiche Produkt wieder".
Das hört sich so an, als ob Du die URL nachdem das Produkt weg war über die robots ausgeschlossen hast?!
Richtige Lösung wäre dann das alles aus der robots.txt rauszuschmeißen und eine 301 Weiterleitung von der alten auf die neue URL zu machen