Hi!
Ich habe 3 Fragen:
1. Einige meiner HP-Unterseiten sollen nicht von Suchmaschinen erfasst werden, desshalb habe ich eine robot.txt-Datei in mein Basisvezeichnis abgelegt.
Dummerweise aber erst, NACHDEM sie bereits von den Suchmaschinen erfasst wurden. Meine Frage nun: Werden die nun gesperrten Seiten beim nächsten Robot-Besuch aus dem Suchmaschinenverzeichnissen gelöscht oder nicht?
2. Hier geht es um meine alte HP, welche immernoch von den Suchmaschinen angezeigt wird, obwohl ich den Account schon vor Wochen gelöscht habe. Erkennen die Suchmachinen selbstständig, das es diese Seite nicht mehr gibt und wird der Eintrag dann automatisch gelöscht?
3. Ich habe den Dateinamen einer meiner HP-Unterseiten geändert.
Von den Suchmaschinen wird diese alte Datei aber immernoch angezeigt, was natürlich die Meldung: "Seite nicht gefunden" verursacht.
Um dies zu vermeiden, habe ich eine "Umlenkdatei" eingerichtet die auf
den neuen Dateinamen verweist und ausserdem zusätzlich den alten Dateinamen mittels robot.txt sperren lassen.
Meine Frage hierzu: Kann ich damit rechnen, das diese alte Datei nun bald aus dem Suchmachinenverzeichnis verschwindet?
Gruss, Klaus :-)
Homepage selbermachen 7.849 Themen, 35.585 Beiträge
verbindlich verbieten kannst du das nur, wenn du bereiche passwortschützt,
denn dann können suchmasch. nix damit anfangen.
deine seiten werden bei einigen suchmaschinen rausgeschmissen, bei einigen icht,
google.de hat z.b. einige seiten meiner alten längst nicht mehr im netzt stehenden
site immernoch erfasst. wahrscheinlich auch deshalb weil ich eine eigene
404 error site hab,die autom. auf die startseite meiner neuen page umleitet (PHP)
und da das serverseitig passiert, merkt die suchm. wahrscheinlich garnicht dass längst nicht mehr vorhanden ist.
einige lassen sie auch drinnen weil sie entweder keinen gescheiten update
mechanismus haben oder sich nicht drum kümmern etc etc
das beste ist, eine eigene error site zu definieren die autom. auf die startseite
etc deiner aktuellen umleitet das ist allerdings nur möglich, wenn dein provider
das zulässt
viele suchm. gehen nicht mehr nach den METAs oder robot.txt sondern nach dem direkten
seiteninhalt, und erfassen dann diesen als info, da metas doch zu oft missbraucht wurden, um
die seite in kategorien zu treiben, die garnichts damit zu tun haben