Homepage selbermachen 7.852 Themen, 35.619 Beiträge

Mysteriöse stoßzeiten bei homepage

hansapark / 6 Antworten / Baumansicht Nickles

hallo..

ich habe piwik als statistik tool installiert und sehe, dass ich täglich um 11 Uhr 25 besucher habe.
jeden tag.

aber es waren auch schon mal 40 auf einen schlag oder ähnliches..

normalerweise sind es nur 1-4 pro stunde..

was kann das sein?
ein bug? serverproblem? suchmaschine?


danke für tips
mfg

bei Antwort benachrichtigen
Olaf19 hansapark „Mysteriöse stoßzeiten bei homepage“
Optionen

Hi Hansapark,

Hast du die Frage schon deinem Webhoster gestellt? Das ist evtl das Aussichtsreichste - wenn z.B. die Bots einer Suchmaschine immer um diese Uhrzeit bei dir aufkreuzen (was ich aus dem Bauch heraus für die wahrscheinlichste Variante halte), dann müssten andere Kunden das gleiche Problem haben, und dann wäre es sehr wahrscheinlich auch dem Webhoster bekannt.

CU
Olaf

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
hansapark Olaf19 „Ich würde auf Bots einer Suchmaschine tippen“
Optionen

hhm ja.
stimmt.


gruss

bei Antwort benachrichtigen
marinierter Olaf19 „Ich würde auf Bots einer Suchmaschine tippen“
Optionen

Du kannst mit einer Robots.txt Datei (fast) alle Suchmaschinenbots ausschließen, und dann siehst du ja, ob es daran lag.

http://de.selfhtml.org/diverses/robots.htm

Ich lasse meine Webseite nur das Root-Verzeichnis durch Bots scannen, sämtliche Unterordner sind gesperrt, spart auch eine Menge Traffic.

bei Antwort benachrichtigen
ChrE hansapark „Mysteriöse stoßzeiten bei homepage“
Optionen

Hallo!

Musste die IP-Nummern loggen und dann mal auswerten...

Gruss

ChrE

bei Antwort benachrichtigen
hansapark ChrE „Hallo! Musste die IP-Nummern loggen und dann mal auswerten... Gruss ChrE “
Optionen

echt ?

viel traffic durch bots? da muss ja richtig was los sein ;)

@ chre, ich glaub es gibt irgendwo sogar so art logfiles.
dann muss ich wohl dann da mal gucken.

wie war das?

ausführen: cmd
trcrt url.de ?


mfg

bei Antwort benachrichtigen
Synthetic_codes hansapark „echt ? viel traffic durch bots? da muss ja richtig was los sein @ chre, ich...“
Optionen

ne was er meint ist dass du beim seitenaufruf auf dem server die IPs loggen sollst. Bei der gelegenheit würde übrigens auch der User-Agent string sinn machen. Denn zb der Googlebot gibt sich über diesen als solchen zu erkennen(qle kombi kk?). Und wenn man schon dabei ist und dieser Code zb per include eingebunden wird, dann empfiehlt es sich die REQUEST URI mitzuloggen.

wenn du mit php arbeitest, sollte folgender code das logging ermöglichen:

<?php

$fp = fopen("log.txt","a");
fputs($fp, "IP: ".$_SERVER['REMOTE_ADDR'] . " Angeforderte Seite: ".$_SERVER['REQUEST_URI'] . " User Agent: " . $_SERVER['HTTP_USER_AGENT']."\n");
fclose($fp);

?>

Alternativ bietet jeder bessere Webspace anbieter einen einblick in die logs für die kunden im CP an. Dort stehen besagte informationen und was abgerufen wurde ebenso.

Als ergebnis bekommst du dann ein log in dieser Art:
IP: 192.168.52.1 Angeforderte Seite: /movemouse/test.php User Agent: Mozilla/5.0 (Windows; U; Windows NT 5.1; de; rv:1.9.1.2) Gecko/20090729 Firefox/3.5.2 (.NET CLR 3.5.30729)
IP: 192.168.52.131 Angeforderte Seite: /movemouse/test.php User Agent: Mozilla/5.0 (X11; U; Linux i686; en; rv:1.9.0.12) Gecko/20080528 Epiphany/2.22

'); DROP TABLE users;--
bei Antwort benachrichtigen