Viren, Spyware, Datenschutz 11.258 Themen, 94.807 Beiträge

News: Viren, Spyware, Datenschutz

Non-Human Traffic - die Bots gehen um...

Olaf19 / 16 Antworten / Baumansicht Nickles

Das kalifornische Unternehmen Incapsula kommt in einer Studie zu dem Ergebnis, dass satte 61,5% des Traffics im Internet nicht von Anwendern herrührt, sondern von Bots - dies entspricht einem Anstieg von rund 21% im letzten Jahr. Mehr noch: etwa 31% der Bots sind schädlich.

Angenehmer Nebeneffekt für Betreiber werbefinanzierter Webseiten: Es scheint technisch (noch?) nicht möglich zu sein zu unterscheiden, ob ein Mensch oder ein Bot eine Werbung geladen hat. Für den Werbetreibenden ist das natürlich ein Problem - wenn von 5 Besuchern, die die Werbung geladen haben, nur 3 in der Lage gewesen sind, diese zu "konsumieren", eben weil sie Menschen sind, bezahlt er viel zu viel.

 
 
Olaf19 meint:

Wenn man einmal unterstellt, dass der Anteil der schädlichen Bots - 31% - in etwa dem Anteil des durch sie verursachten Traffics entspricht, dann würde das bedeuten, dass 20% des Internettraffic-Aufkommen bösartigen Charakters ist, sofern die Zahlen aus der Studie zutreffen. Ich finde, das ist ganz schön viel.

"Wir sind die Bots - Widerstand ist zwecklos" :-/

Hinweis: Vielen Dank an Olaf19 für das Verfassen der News. Diese News stammt von einem Nickles.de-Teilnehmer. Die Nickles.de Redaktion übernimmt keine Verantwortung für den Inhalt und die Richtigkeit dieser News.

Bei Nickles.de kann übrigens jeder mitmachen und News schreiben. Dazu wird einfach in einem Forum ein neues Thema begonnen und im Editor die Option "News" gewählt.

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
torsten40 Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen
dass satte 61,5% des Traffics im Internet nicht von Anwendern herrührt

Waage ich zu bezweifeln. knappe 60% von bots, 30% Traffic p0rn, bleiben noch 10% für den Rest.

Aber dennoch gehe ich von realistischen 20% Internettraffic weltweit von das abgreifen persönlicher Daten, aus. Wenn man sich die Entwicklung von Smartphones anschaut. Dann bleiben noch 80% für alles andere.

Freigeist
bei Antwort benachrichtigen
Olaf19 torsten40 „Waage ich zu bezweifeln. knappe 60 von bots, 30 Traffic ...“
Optionen
knappe 60% von bots

Naja, das wäre ja nicht so weit weg von dem, was die Studie sagt. Zumal, bei einer Steigerung von 21% bedeutet das, die Bots lagen noch vor rund einem Jahr bei rund 50% "Marktanteil" beim Traffic.

Schwer zu sagen, ob die Smartphones wirklich "schuld" daran haben, dass rund 20% des Trafficanteils dem unerwünschten Abgreifen persönlicher Daten gilt. Schindluder mit der Privatsphäre treiben, das geht auch mit Notebooks gut und selbst mit Desktops, wobei letztere insofern weniger interessant sind, da sie nicht so viel Spannendes über den Aufenthaltsort des Nutzers aussagen ("zuhause").

CU
Olaf

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
torsten40 Olaf19 „Naja, das wäre ja nicht so weit weg von dem, was die ...“
Optionen

Und die Studie hat natürlich absolut, und soweiso, recht :)

Bei Note/Netbooks, und Desktops kann hat es noch so ziemlich selber in der Hand, was gesendet wird, und was nicht, wenn man weiß was man macht. Beim Smartphone ist das durch die Apps nicht der fall. Wer guckt schon in den Sourcecode, entfernt die betreffenden Stellen, und compeliert neu? -niemand- installiert und fertig

Und das HandyOS -egal welches- auch SpywareOS heißt, sollte wohl auch dem letzen klar sein :)

Die Prozente sind meine subjetive Einschätzungen, ohne Messwerte oder sonstiges, nur duch beobachtung über Jahre hinweg.

Der meiste internettraffic, was ich meinem Umfeld beobachte, läuft übers Handy.. oder neudeutsch Smartphone. Whatsapp und Facebook, wobei Whatssapp klar die Nase vorn hat

 

Wobei ich bei meiner anwort nicht über Bots wie:

Google analytics, google apis, yahoo bot, msn bot bing bot .. nachgedacht habe. zumal GoogleAnalytics irgendwie auch ein Bot ist, und auch auch irgendwie überall ist. Dann mag es eventuell vielleicht hinkommen.

Aber wer google Analytics einsetzt, verkauft auch seine Seele :)

Muss man denn wirklich seine Meinung immer anhand von (unsinningen) Studien belegen müssen?

p0rn (Redtube,xhamster) belegt dennoch knappe 30% traffic ;) es gab Zeiten, 2005 und davor, da war p0rn 80%

*prost*

Freigeist
bei Antwort benachrichtigen
Olaf19 torsten40 „Und die Studie hat natürlich absolut, und soweiso, recht : ...“
Optionen
Muss man denn wirklich seine Meinung immer anhand von (unsinningen) Studien belegen müssen?

Was findest du daran unsinnig? Die Studie versucht, dem Thema mit Zahlen, Daten, Fakten beizukommen, den Ansatz kann ich nun so verkehrt nicht finden.

Und das HandyOS -egal welches- auch SpywareOS heißt, sollte wohl auch dem letzen klar sein :)

Symbian soll ganz nett gewesen sein, hat aber auch schon bessere Tage gesehen...

Ja, du hast schon recht, es hat sich in den letzten Jahren viel verschoben in Richtung Smartphone / Tablet. "Früher" habe ich Internet unterwegs nie vermisst, war immer der Meinung, zuhause sitzt man doch eh schon viel zu viel davor. Aber es ist doch verdammt praktisch, und schon hat man seine Seele verkauft :-/

CU
Olaf

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
torsten40 Olaf19 „Was findest du daran unsinnig? Die Studie versucht, dem ...“
Optionen
Symbian soll ganz nett gewesen sein, hat aber auch schon bessere Tage gesehen...

Symbian, was ich selber absolut favorisiere, wurde auf grundsätzen gegründert, die nix mit iOS oder Andriod gemein haben. Der Datenschutz stand bei Symbian ganz oben, und deswegen zum scheitern verurteilt.

Die Privatsphäre steht bei Symbian an erster Stelle (finde den link grad nicht wieder, brauch ich auch nicht wirklich), und deswegen und ist es zum scheitern verurteilt. nurmal so am Rande Nokia hat mit Symbian das erste "HandyOS" rausgehauen. Und genau deswegen war Nokia auch so erfolgreich

Ich kann dir eins versichern. Bei meinem N8 Symbian, hört niemand mit, es sei der Provider schaltet da was offen.

Ja, du hast schon recht,

Natürlich hab ich recht, was anderes aber ich nie angezweifelt :)

 

 

Gruß

Freigeist
bei Antwort benachrichtigen
torsten40 Nachtrag zu: „Symbian, was ich selber absolut favorisiere, wurde auf ...“
Optionen
Symbian soll ganz nett gewesen sein

Achso nachtrag .. ich glaube das Symbian weiter verbreitet ist, also iOS =))

von 2010

http://www.macerkopf.de/2010/12/04/statistik-zur-verbreitung-von-mobilen-betriebssystemen-ios-symbian-android/

http://hansdorsch.com/2012/02/10/mobiles-web-2011-2012/

kein bock weiter zu suchen ^^

Symbian ist ganz nett :) Schade das MS die Handysparte von Nokia gekauft hat.

Wobei Microsft "nur" Lumia" gekauft hat, und nicht Nokia

Uns Trotteln von Deutschen versucht man nur imer "einzubleuen", dass wir ein iOS oder Andriod brauchen

Freigeist
bei Antwort benachrichtigen
bechri torsten40 „Achso nachtrag .. ich glaube das Symbian weiter verbreitet ...“
Optionen

Hallo thorsten,

danke für deinen Beitrag. Welches OS würdest du empfehlen, wenn man in der nächsten Zeit ein aktuelles Handy kaufen wollte? Derzeit bin ich auch sehr mit meinem Symbian-Smartphone zufrieden. Es ist nur dann im Internet, wenn es sein muss und Fremd-Software kommt noch ohne Zugriff auf SMS / Kontakte etc. aus^^ Gibt es überhaupt noch ein vergleichbares OS?

MfG Chris
bei Antwort benachrichtigen
mawe2 torsten40 „Und die Studie hat natürlich absolut, und soweiso, recht : ...“
Optionen
Beim Smartphone ist das durch die Apps nicht der fall. Wer guckt schon in den Sourcecode, entfernt die betreffenden Stellen, und compeliert neu? -niemand- installiert und fertig

Man muss aber fairerweise sagen, dass das auf Notebooks und anderen "richtigen" Computern auch (fast) niemand macht.

Aber Du hast natürlich Recht: Auf (ich nenne es mal) "traditionellen" Betriebssystemen (Win, MacOS, Linux u.ä.) hat man sicher mehr Kontrolle als auf den so oft zu Unrecht gelobten mobilen Systemen. Das ist ja ein Hauptgrund, weshalb diese auch außer für ein paar Spielereien zu nichts ernsthaftem zu gebrauchen sind.

Gruß, mawe2

bei Antwort benachrichtigen
mawe2 Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen
Es scheint technisch (noch?) nicht möglich zu sein zu unterscheiden, ob ein Mensch oder ein Bot eine Werbung geladen hat.

Wenn es möglich wäre, das zu unterscheiden, bräuchten die diversen Sites ja die berüchtigten Captchas nicht einzusetzen (z.B.) wenn sich ein Benutzer registrieren will.

Diese scheinen immer noch die einzige Möglichkeit zu sein, wirksam zwischen einem Automaten und einem Menschen zu unterscheiden. Mittlerweile sind die Captchas in vielen Fällen ja unbenutzbar geworden. Die Zeichen werden oft bis zur (auch für den Menschen) totalen Unlesbarkeit verformt, damit ja nicht ein OCR-Bot noch irgendwas damit anfangen kann.

Für den Werbetreibenden ist das natürlich ein Problem - wenn von 5 Besuchern, die die Werbung geladen haben, nur 3 in der Lage gewesen sind, diese zu "konsumieren", eben weil sie Menschen sind, bezahlt er viel zu viel.

Und schon sind wir wieder thematisch bei dem Pro und Contra werbefinanzerter Sites angekommen. (Wir haben das ja oft schon im Zusammenhang mit Werbeblockern diskutiert.)

Wenn man als Werbetreibender immer noch ersthaft erwägt, in solche schlecht bzw. gar nicht funktionierenden Systeme Geld zu investieren, muss man schon sehr viel davon (also von dem Geld) haben.

Oder muss man sehr viel (Nutzen) von dem zu teuer bezahlten Werbeeffekt haben?

dass 20% des Internettraffic-Aufkommen bösartigen Charakters ist

Man darf nicht vergessen, dass auch noch anderer Traffic dazu kommt. Z.B. für eMail! Und von diesem Traffic soll ja über 90% unerwünscht (Spam, Junk) sein.

Das heißt insgesamt: Mit dem Geld, das wir in dieses System stecken (und letztendlich sind es immer die Endkunden, die das Gesamtsystem finanzieren) bezahlen wir in nicht unerheblichem Maße: Internet-Kriminalität, Terror, Werbemüll und andere unerwünschte Phänomene. Willkommen in der schönen neuen Welt :-)

Gruß, mawe2

bei Antwort benachrichtigen
angelpage Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen

Jeder Webmaster, der seine eigenen Seiten analysiert, kennt diese Relation - seit Jahren. Deshalb blockt er ja gezielt in seiner "robots.txt" (wird leider durch unseriöse Bots nicht beachtet) und -garantiert sicher- mittels ".htaccess" Besuche bestimmter Bots und Crawler.

https://de.wikipedia.org/wiki/Robots_Exclusion_Standard

https://de.wikipedia.org/wiki/Htaccess

In der Statistik für gestern habe ich trotz vorgegebener Restriktionen noch 81,1% Besuche mit einer Zeitdauer von 0...30 s, was immer noch einige Bots/ Crawler enthält.

Die zweite große Gruppe beim Traffic sind die Tracking- und Analysetools, insbesondere in Javascript und als Mini- Grafiken. Diese bringt der Webmaster selbst auf seinen Seiten unter und läßt seine oder beauftragte Bots analysieren (beim F*C*S Online sind das zig! Javascripts und Tracking- Bilder - nicht nur, um Besuche qualifiziert zu registrieren, sondern um Besucher, d.h. den User selbst zu identifizieren. Oft belegen diese Spitzel- ähm Analysestrings mehr Ressourcen als der gewünschte Content in den Netzen und auf dem Rechner sowieso. Zusätzlich führt das natürlich zu zusätzlichen Wartezeiten, da Scripte und Bildchen von völlig unterschiedlichen Servern -weltweit- geholt werden müssen ...

Diese Gruppe erkennst du selbst in Adblock Plus (zum Firefox) unter "Blockierbare Elemente", noch komfortabler und schneller mit dem Add-on "Ghostery".

Die dritte große Gruppe wird nicht, wie die ersten beiden, durch die Webmaster selbst, sondern durch eine ganze kriminelle Industrie -Verbund der Geheimdienste, Regierungen (Diktaturen! Schurkenstaaten, klar!), Verfaschungsschützer usw. usf.- für ihre Sammel-, Speicher- und Analysewut gebraucht.

Ja, die Welt ist sehr schlecht - wissen wir aber nicht erst seit Snowden.

Und nicht zuletzt: Natürlich ist es auch möglich, Bots und Menschen zu unterscheiden. Bots haben eine Psyche (und sind nicht so auf Pornos, Schnäppchen, kostenlos ...) aus Cool. Schädlich als Begriff ist manchem bereits die Zeit, Geld und Nerven raubende Ablenkung.

 

Schönes Wochenende (ich gehe noch mal über die Weihnachtsmärkte).

bei Antwort benachrichtigen
Olaf19 angelpage „Jeder Webmaster, der seine eigenen Seiten analysiert, kennt ...“
Optionen
Deshalb blockt er ja gezielt in seiner "robots.txt" (wird leider durch unseriöse Bots nicht beachtet)

Ja, und genau für die - oder richtiger: gegen die - ist diese Datei gemacht. htaccess kannte ich bislang nur im Zusammenhang mit Passwortschutz - also dass ein User davorsitzt, der etwas eintippt. Dass man mit dieser Technik auch "den guten" unter den Bots Einlass gewähren kann, wusste ich noch nicht. Dann ist das natürlich wesentlich sinnvoller als mit der robots.txt.

CU
Olaf

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
Marwoj Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen

Mich interessiert nun warum eine deutsche Seite ein Blog aus dem Überland als quasi "Teilen" -der Information verlinkt und als Info abgibt.
Sind da Autoren und Verfahren bekannt gegeben oder einfach nur anonyme Produktion ? Wenn ich ein Buch lese, dann kenne ich den Schriftsteller und die Administration. Die Quelle wird auch rechtlich dazugeschrieben.
Die amerikanische Seite, die indirekt erreichbar ist, spricht kaum Informationen aus. Einfach ein Blog wie Millionen im Netz. Anonym und ohne Stempel..
--

 

amat victoria curam
bei Antwort benachrichtigen
gelöscht_103956 Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen

Ich fürchte, das werden die Politiker aller couleur nutzen, um unbedingt wieder mehr Kontrollen durchzusetzen.... naüüüütrlich alles zum Guten für die Bürger.

Techn wirds wohl nie eine Unterschied geben zwischen bösen und guten traffic.....

 

bei Antwort benachrichtigen
xafford Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen
Angenehmer Nebeneffekt für Betreiber werbefinanzierter Webseiten: Es scheint technisch (noch?) nicht möglich zu sein zu unterscheiden, ob ein Mensch oder ein Bot eine Werbung geladen hat.

Diese Aussage ist eigentlich zwar nicht falsch, aber unsinnig. Im Normalfall lädt ein Bot keine Werbung - nicht weil das nicht möglich wäre, sondern weil es keinen Sinn ergibt. Es gibt zwar unzählige Arten von Bots - "gute" wie "böse" - aber ich kann mir nur für einen einzigen Typen vorstellen, dass es sinnvoll wäre, Werbung zu laden: Bots von Webmastern, die ihren Werbe-Dienstleister betrügen wollen.

Ansonsten ist es auch gar nicht so einfach mittels eines Bots Werbung zu laden, denn Werbung ist heute nicht mehr einfach nur eine Grafik oder Text in einem Link-Tag - Werbung wird über Javascript durch den Werbedientleister zielgerichtet für den Client ausgeliefert, anhand seines Standortes, seiner Vorlieben, zuvor besuchter Seiten usw... ein Browser liefert solche Informationen problemlos, einem Bot muss dies erst beigebracht werden - Referer senden, Cookies speichern und ausliefern, Links klicken - kurzum, Werbung dürfte durch Bots nicht messbar beeinflusst werden.

Auch insgesamt würde ich diese Statistik im Ganzen anzweifeln, zumindest so pauschal. Ja, ein Großteil der Abrufe von WWW-Seiten, Bildern, Dokumenten und Videos gehen auf das Konto von Bots, dazu muss ich nur in die Logs der betreuten Server schauen, aber das Web besteht aus mehr als nur WWW. Ein Bot nutzt im Normalfall kein IPTV, schaut keine Streams an, läd sich keine ISO-Dateien über FTP, sieht keine Updates... wenn es also um WWW-Abrufe geht, dann würde ich der Statistik glauben, aber wenn es um Traffic geht, dann hege ich da doch arge Zweifel.

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen
Olaf19 xafford „Diese Aussage ist eigentlich zwar nicht falsch, aber ...“
Optionen

 

wenn es also um WWW-Abrufe geht, dann würde ich der Statistik glauben, aber wenn es um Traffic geht, dann hege ich da doch arge Zweifel.

Danke für deine Differenzierung, Xaff - das sind in der Tat zwei unterschiedliche Paar Schuhe. Möglich, dass die Studie sich nur auf Abrufzahlen bezogen hat.

 

Im Normalfall lädt ein Bot keine Werbung - nicht weil das nicht möglich wäre, sondern weil es keinen Sinn ergibt. Es gibt zwar unzählige Arten von Bots - "gute" wie "böse" - aber ich kann mir nur für einen einzigen Typen vorstellen, dass es sinnvoll wäre, Werbung zu laden: Bots von Webmastern, die ihren Werbe-Dienstleister betrügen wollen.

Ehrlich gesagt: ich hatte es so verstanden, dass er die Werbung mitlädt, weil er keine Differenzierung der zu ladenden Inhalte auf einer Website vornimmt. Wenn diese Annahme meinerseits falsch war, kann man diesen Punkt natürlich unter den Tisch fallen lassen.

CU
Olaf

Die Welt ist ein Jammertal ohne Musik. Doch zum Glueck gab es Bach, Beethoven, Haendel und Goethe (Helge Schneider)
bei Antwort benachrichtigen
xafford Olaf19 „Danke für deine Differenzierung, Xaff - das sind in der ...“
Optionen
Ehrlich gesagt: ich hatte es so verstanden, dass er die Werbung mitlädt, weil er keine Differenzierung der zu ladenden Inhalte auf einer Website vornimmt.

Nun, das ist jetzt etwas komplizierter zu erläutern, fangen wir mal bei einer grundsätzlichen Betrachtung an:

Was will ein Bot? Ein Bot ist im Normalfall auf einer Seite um etwas zu finden, seien es Seiteninhalte für einen Suchmaschinen-Bot, Schwachstellen, DoS-Angriffe, SPAM bei bösen Bots - was auch immer. Sinnvollerweise wird der Bot dann nur die Inhalte abrufen, die für ihn relevant sind - das können zwar auch Bilder, Flash und Videos sein, aber Werbung wird dies nicht betreffen - warum? Das kommt im nächsten Absatz.

Wie schon erwähnt, Werbung wird heute dynamisch in Seiten eingeblendet, man hat nicht mehr schlicht in die Seite eingebaute Banner mit einem Link. Zudem kommen die Skripte, welche die Werbung einblenden von den Ad-Servern der Werbenetzwerke. Ein Bot müsste also mehreres tun:

  • Alle notwendigen Webtechniken implementieren, die Voraussetzung für das erfologreiche Einbinden von Werbung in den Seiteninhalt ermöglichen (Cookies, Referer, CSS, Javascript, Flash)
  • Externe Ressourcen wie Skripte mitladen
  • Skripte erfolgreich parsen.

Okay, ich muss etwas einschränken, eigentlich ist es gar nicht so schwer, dies in einen Bot einzubauen - aber wozu? Alles, nur um in der Regel für ihn irrelevante, ja sogar hinderliche Inhalte in die Seite zu rendern? Das würde wirklich nur Sinn ergeben wenn gefälschte Werbeabrufe das Ziel des Bots wäre.

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen