Homepage selbermachen 7.852 Themen, 35.619 Beiträge

Erfassung von PHPch Google und Co

Heinz_Malcher / 4 Antworten / Baumansicht Nickles

Hallo, mich würde mal interessieren, ob Suchmaschinenen wie Google und Co durch PHP erzeugte Seiten erfassen können die URRL s haben der Form:

http://www.nickles.de/test.php?name=Thomas&nachname=woelfer


Grundsätzlich sollte kein problem dabei sein, aber was wenn die seite SO in der form nicht auf dem server liegt, das heisst, sie muss erst erzeugt werden. tatsächlich auf dem server liegt nur die test.php ohne die variablen

bei Antwort benachrichtigen
Zaphod Heinz_Malcher „Erfassung von PHPch Google und Co“
Optionen

... Heinz, was passiert denn, wenn die Suchmaschine einen Request auf eine PHP-Seite macht?
Richtig, die Seite wird erzeugt ;-) - damit kriegt die Suchmaschine genau wie ein Browser die komplette Seite und ihren URL.
Allerdings filtern manche Suchmaschinen "rewrited URLs" raus ;-(
Have fun,
Z.

bei Antwort benachrichtigen
Christoph Maus Heinz_Malcher „Erfassung von PHPch Google und Co“
Optionen

Nein, sollte eigentlich nicht gehen.

cm

bei Antwort benachrichtigen
Zaphod Christoph Maus „Nein, sollte eigentlich nicht gehen. cm“
Optionen

... und wieso nicht?

bei Antwort benachrichtigen
xafford Heinz_Malcher „Erfassung von PHPch Google und Co“
Optionen

also hier mal ne kurze erklärung wie es funktioniert und wie nicht:
suchmaschinen klappern das internet nach webservern ab, haben sie nun einen, so stellen sie eine stinknormale GET anfrage an den server, er liefert die indexseite, diese "liest" sich der robot nun durch, egal ob html, php, asp, shtml, phtml, cgi, etc...
gut...die seite hat er nun..und weiter? hier kommen links ins spiel, da der robot nur das sieht, was auch ein surfer zu sehen bekommt vom webverzeichnis, er weiß also nicht, welche seiten noch dort liegen, wenn sie nicht verlinkt sind.
ergo...ein robot sucht jetzt die links oder generell URLs und URIs im quelltext. wurde er fündig, so stellt er die nächste GET-anfrage usw...
jetzt zum fall php..habe ich nun eine index.php, so bekommt der robot sie geliefert, er erkennt am encoding, daß es sich um html handelt (oder text oder wasimmer er auch indiziert) und tut, wozu er da ist...er indiziert. liegt jetzt in der index.php ein link wie etwa:
http://irgendeinedomain/index.php?vname=thomas&nname=woelfer stellt, so bekommt er wieder eine normale html-seite geliefert (im normalfall) und indiziert diese auch usw...
es gibt allerdings auch fälle in denen es nicht funktioniert, z.b. wenn die variablen zur erzeugung der seite über formulare weitergegeben werden. es gibt z.b. seiten, dei meien es wäre chick ihre navigation über ein dropdownfeld zu machen (bei normalen links mit ganzer url geht das immer noch). du hast also ein form mit action index.php und zwei input-felder vname und nname mit den werten thomas und woelfer. das kann ei robot aber beim besten willen nciht zu einer url kombinieren, ergo wird er diesem "link" nciht folgen können und er wird nicht weiter indizieren.
ich hoffe das war einigermaßen verständlich.

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen