Viren, Spyware, Datenschutz 11.258 Themen, 94.807 Beiträge

Schon wieder ein Leaktest, diesmal von Chip

Xdata / 6 Antworten / Baumansicht Nickles

Die Zeitschrift Chip hat die Sicherheit von Linux,Mac,Xp und Vista getestet.

Dabei war auch wieder ein sogenannter Leaktest der das System von
innen heraus testen soll, insbesondere die Firewall.

Wenn ich mir aber im Falle von Windows eine .exe herunterlade
und die auch freiwillig starte kann die nur von einem Programm gelockt
werden das auf diese exe konditioniert ist.

Es bedeutet also nichts wenn eine Leaktest.exe geblockt wird.
Eine Schadsoftware die erstmal gestartet ist, von innen, kann ja als
ganz harmloses Programm auftreten, oder Prozesse starten die erstmal
ganz legal sind, oder warten bis sie Administrative Rechte erlangt.

Genaugenommen könnte man als Leaktest jedes seriöse Programm nehmen
Zb eins das ein Laufwerk öffnet oder zB den Browser Opera.

Ich hätte gerne gewußt was ein Leaktest beweisen soll?
Außer das die Firewall gerade "diesen" kennt und lockt.
Vielleicht liege ich falsch, aber der Ausgehende Netzwerkstrom ist
doch nur sehr lückenhaft zu kontrollieren.
Besonders wenn Malware schon
Systemrechte hat?

bei Antwort benachrichtigen
xafford Xdata „Schon wieder ein Leaktest, diesmal von Chip“
Optionen
Die Zeitschrift Chip hat die Sicherheit von Linux,Mac,Xp und Vista getestet.

Die Chip ist nach meiner Ansicht eine der Institutionen, der ich neben der ComputerBild so etwas am wenigsten zutrauen würde.

Wenn ich mir aber im Falle von Windows eine .exe herunterlade
und die auch freiwillig starte kann die nur von einem Programm gelockt
werden das auf diese exe konditioniert ist.


Nein, wenn dem so wäre, dann wären Application Level Filter nutzlos. Jeder Filter der nur nach einer Whitelist filtert (also nur Programme filtern kann, welche es auch kennt) ergibt vom Prinzip her schon keinen Sinn mehr, eventuell lässt Du dich zu dieser Annahme ja vom Prinzip eines signaturbasierten Virenscanners verleiten?

Es bedeutet also nichts wenn eine Leaktest.exe geblockt wird.
Eine Schadsoftware die erstmal gestartet ist, von innen, kann ja als
ganz harmloses Programm auftreten, oder Prozesse starten die erstmal
ganz legal sind, oder warten bis sie Administrative Rechte erlangt.


Ganz so einfach ist es für Schadsoftware nun auch wieder nicht. Einen Prozess kann man mit normalen Anwenderrechten erst einmal nicht starten oder gar installieren und Administratorenrechte bekommt eine Anwendung auch nur auf zwei Wegen. Entweder der Administrator des Rechers startet sie, oder die Anwendung kann sich diese selbst verschaffen über einen "Privilege Escalation Exploit", also eine Lücke, die es ermöglicht sich höhere Rechte zu verschaffen.

Genaugenommen könnte man als Leaktest jedes seriöse Programm nehmen
Zb eins das ein Laufwerk öffnet oder zB den Browser Opera.


Das will man aber nicht testen, testen will man ja, ob ein Programm es schafft unbemerkt eine Datenverbindung nach Außen zu öffnen.

Ich hätte gerne gewußt was ein Leaktest beweisen soll?
Außer das die Firewall gerade "diesen" kennt und lockt.
Vielleicht liege ich falsch, aber der Ausgehende Netzwerkstrom ist
doch nur sehr lückenhaft zu kontrollieren.
Besonders wenn Malware schon
Systemrechte hat?


Hmm... ich will nicht schulmeisterlich klingen, aber kann es sein, dass Dir das Wirkprinzip einer Desktopfirewall nicht ganz geläufig ist?

Eine DTF ist kein Postitivfilter, der irgendwo auf dem Rechner ruht und sich anschaut, welche Programme die es in seiner Liste hat gerade was tun und ob sie das dürfen... das wäre von Grund auf schwachsinig und nutzlos, gerade wenn dieser Filter im gleichen Kontext liefe, wie die zu beobachtende Software.

Es stimmt auch nicht, dass der ausgehende Netzwerk-Datenstrom nur schwer zu kontrollieren sei, denn er passiert immer den Netzwerkstack und hier ist es auch, wo eine DTF ansetzt / ansetzen muss. Fast jede DTF (zumindest wenn sie nur im entferntesten etwas taugen soll) klinkt sich als Treiber in den Netzwerkstack des Betriebssystems ein und installiert noch andere Dienste und Treiber. Sie filtert dann innerhalb des Netzwerkstacks, den jeder Datenstrom der nicht seinen eigenen Netzwerkstack mitbringt (was prinzipiell aber auch passieren kann) passieren muss. Es funktioniert also nicht so, dass die DTF nach dem schaut, was bestimmte Programme senden wollen, sondern sie schaut was gesendet wird und prüft dann erst, wer da versucht zu senden, sie hangelt sich also üüber den Netzwerkstack nach oben auf die Anwendungsebene und prüft den Hashwert der Anwendung und eventuelle Hooks, also ob sich ein anderes Programm eventuell in diese Anwendung eingeklinkt hat. Diesen Hash vergleicht sie dann mit der Filterliste und im Idealfall blockiert sie erst einmal jeden Datenstrom, der nicht explizit erlaubt wurde anhand der Programmsignatur.

Natürlich hat so ein System auch Lücken, wie jedes System prinzipiell, aber ganz so einfach ist es nun auch wieder nicht dies auszuhebeln. Schwierig wird es allerdings, wenn so wie Du voraussetzt die Malware administrative Rechte hat, denn dann kann sie im schlimmsten Fall wirklich ihren eigenen Natzwerkstack mitbringen und installieren und somit die Filter schlicht umgehen, deswegen sollte man wirklich niemals als Administrator arbeiten. Zwar ist es dann immer noch möglich mittels diverser Techniken verschiedene Anwednungsfilter zu umgehen, aber es macht es um einiges schwieriger.
Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen
Xdata xafford „ Die Chip ist nach meiner Ansicht eine der Institutionen, der ich neben der...“
Optionen

Danke für deine Erlärung.

Der Grund warum unter Xp viele noch als Administrator arbeiten ist wohl weil viele Software sich richtigerweise nur
als Administrator installieren lassen. Die Funktion Ausführen als funktioniert nicht immer.
Und viele verstehen nicht warum sie dann den Benutzer wechseln sollen.

Interressant war auch Der Thread wo es darum ging das Windows als Server zumindest nicht prinzipiell
unsicherer ist als Unix und Linux.

Es gab mal einen Test wo das alte Windows 2000 bei einer Serverbelastung fast gleichauf mit einem Redhat
Server lag.

Wenn ich es richtig verstanden habe ist eine gute DTF nach der Installation ein Systemprogramm welches
doch nicht so einfach übergangen werden kann wie oft behauptet.

bei Antwort benachrichtigen
xafford Xdata „Danke für deine Erlärung. Der Grund warum unter Xp viele noch als...“
Optionen

Hallo xdata,

das mit dem Arbeiten als Administrator ist leider wirklich ein Problem und vielen Leuten ist nicht einmal bewusst, dass sie eben als Administrator angemeldet sind, bzw dass ihr Nutzeraccount ein Administratorenaccount ist. Dank alter Tradition ist dem eben leider auch schwer bei zu kommen und Du hast Recht, dass Software sich idR nur als Administrator installieren lässt, dies ist aber auch gerade gut so und wie oft installiert man Software? Und für den Fall, dass man zu faul ist den Account zu wechseln gibt es immer noch "Ausführen als..." im Kontextmenü. Das ist nur teilweise ein Windowsproblem, denn gleiches Problem hätten eben diese Anwender auch unter anderen Betriebssystemen und daher auch meine Vermutung, dass sie es unter einem anderen Betriebssystem ähnlich handhaben würden und damit die Sicherheitsvorkehrungen des Systems aushebeln.

Was aber bei Windows leider oft noch hinzu kommt ist, dass auch einige Software unter normalen Nutzeraccounts nur eingeschränkt läuft, also bei der normalen Arbeit auch voraussetzt, dass der Nutzer administrative Rechte besitzt... das ist schlampig und da trägt MS auch eine dicke Mitschuld in meinen Augen.

Was den Test Windows2000 gegen Redhat Linux angeht würde ich aber nur mit Vorsicht genießen, denn da gibt es so viele versteckte Möglichkeiten so einen Vergleich mal für die eine, mal für die andere Seite zu entscheiden, relativ unstrittig ist aber, dass die alten NT-Kernel ziemlich schnell arbeiten, bei Windows hakt es meist mehr beim Sheduler. Aber nochmal zurück zum Test... je nachdem was man auf dem System laufen lässt, mit welchen Einstellungen und Optimierungen, ob man selbst den Kernel gebacken hat oder einen beliebigen out-of-the-box nimmt fällt die Entscheidung mal für das eine System, mal für das andere... der große Vorteil von Linux ist jedoch, die extreme Anpassbarkeit und Skalierbarkeit, bei der Windows schnell an die Grenzen stösst. Ich würde aber fast eine Wette eingehen, dass eine Standardinstallation eines Windows2000-Desktops erst einmal flotter zu Werke geht als eine Standardinstallation eines RedHat das zur selben Zeit aktuell war mit KDE.

Wenn ich es richtig verstanden habe ist eine gute DTF nach der Installation ein Systemprogramm welches
doch nicht so einfach übergangen werden kann wie oft behauptet.


Hmmm... das will ich jetzt so nicht unterschreiben. Was ich oben beschrieben habe war das Grundprinzip einer DTF, die Umsetzung ist dann immer noch einmal etwas anderes und da gibt es mitunter wirklich lausige. So hat es ein Hersteller geschafft, dass z.B. die Konfiguration beliebig änderbar war, aus jedem Kontext heraus... damit fällt Sicherheit erst einmal flach. Ebenso dürfte nicht jede Application Level Firewall auch wirklich richtig überprüfen, ob ein zulässiges Programm eventuell von einem anderen Programm oder Prozess missbraucht wird, oder ob wirklich nur der Nutzer eine Seite aufrufen will. Und auch der Missbrauch eines anderen Programmes lässt sich wohl so anstellen, dass die Firewall es nicht bemerkt.

Die Aussage mit dem leichten Umgehen einer DTF ist auch immer so eine Sache... es hängt davon ab wer es in welchem Zusammenhang äußert. Ein fähiger Hacker wird kein großes Problem damit haben eine DTF auf einem System zu umgehen welches er kennt, wenn er also weiß welche DTF auf dem System läuft, denn er kann diese gezielt aushebeln.
Wenn diese Aussage jedoch ein beliebiger User X in einem Forum äußert und generalisiert ist sie schlichtweg dummes Geblubber, denn es gibt zig verschiedene Produkte, die unterschiedlich zu Werke gehen und unterschiedliche Schwachstellen aufweisen. Ein 08/15-Trojaner kann zwar vorgefertigte Angriffsvektoren für eine bestimmte Anzahl Y an verschiedenen Produkten und verschiedenen Versionen dieser Produkte mitbringen, aber es wird immer Produkt Z geben, dass er nicht einfach umgehen kann... man hat so also immer noch die Chance den Schädling zu blockieren und zu erkennen, die man ohne eine DTF erst garnicht hätte... und in Zeiten missbrauchter AdServer, gehackter Webpräsenzen seriöser Firmen und Institutionen, Viren und Trojanern auf nagelneuen Datenträgern und durch Einbrüche auf Entwicklungsservern verseuchte Software zeugt in meinen Augen der verbreitete Spruch mit "Brain 2.0" in meinen Augen eben nicht gerade von allzuviel eben davon. Mitdenken ist ein wichtiger Punkt, aber so lange nicht jemand in Echtzeit sämtliche Daten verzögerungsfrei analysieren und verstehen kann, die so über sein Netzwerkkabel wandern, der sollte sich hüten davon auszugehen dass dies alles so seine Richtigkeit hat.

Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen
Xdata xafford „Hallo xdata, das mit dem Arbeiten als Administrator ist leider wirklich ein...“
Optionen

Naja, das mit dem unzulässigen Verallgemeinern ist mir auch schon passiert, oft aber auch durch nicht ganz richtige
Beiträge in Zeitschriften. Es war mal so das die Xp interne Firewall schlechter gemacht wurde als sie ist.
Den Blaster Wurm hat auch die geblockt, wenn sie denn aktiviert war.

Paketfilterung muß aber recht wirkungsvoll sein auf einer OpenBsd Seite wurde mal darüber berichtet.

Der Test von Redhat gegen Windows 2000 ist schon etwas Älter und war von einer Windows Zeitschrift.
Und wohl nur über eine Kurze Zeitspanne.

Erstaunt hat mich ein Bericht von einem 2000 Euro Büroserver mit Desktopmainboard und --- Xp!

bei Antwort benachrichtigen
xafford Xdata „Naja, das mit dem unzulässigen Verallgemeinern ist mir auch schon passiert, oft...“
Optionen
Paketfilterung muß aber recht wirkungsvoll sein auf einer OpenBsd Seite wurde mal darüber berichtet.

Naja, Paketfilterung ist eigentlich in jeder Firewall die Grundtechnik, welche zum Einsatz kommt, sie arbeitet jedoch auf einer relativ niedrigen Ebene des Netzwerkstapels, afair eine Schicht höher als reine Portfilter (müsste das jetzt selbst nachschauen). Paketfilterung ist also nichts besonders extravagantes, es ist eigentlich die Pflicht jeder Firewall (auch "echter" Firewalls, die auf unabhängigen Systemen vor einem Netzwerk laufen). Auch DTFs haben Paketfilter als Basis, die jedoch durch Anwendungsfilter und oftmals noch andere Komponenten wie Behavioral Filter (Verhaltens-Filter) u.a. ergänzt werden. Eventuell nahm der Artikelzu BSD ja Bezug auf die erste Version der XP-Firewall, diese war nämlich erst einmal nicht viel mehr als ein Portblocker. Vielleicht reden wir da aber auch gerade aneinander vorbei ;o)

Erstaunt hat mich ein Bericht von einem 2000 Euro Büroserver mit Desktopmainboard und --- Xp!

Naja, mich erstaunt das jetzt nicht so sehr ;o)... Erstens sind in vielen (oft überteuerten) Kleinservern dieser Preisklasse Desktop-Komponenten verbaut (egal ob FSC, Dell oder IBM) und zweitens ist der Kernel von XP weitgehend identisch wie der von Windows2003 Server (der im Allgemeinen keinen allzu schlechten Ruf als Server für klein- und mittelständische Unternehmen hat).
Pauschalurteile sind immer falsch!!!
bei Antwort benachrichtigen
Xdata xafford „ Naja, Paketfilterung ist eigentlich in jeder Firewall die Grundtechnik, welche...“
Optionen

Vielen Dank nochmal für deine ausführlichen Eräuterungen.

Bei der Sicherheit muß man ja auch im häuslichen Bereich immer am Ball bleiben.

Absolute Sicherheit wird man natürlich nicht erreichen, aber wenn man auf seinem System die wichtigen Grundregeln
einhält kann man mit Linux un Xp beruhigt ins Internet ;-)

bei Antwort benachrichtigen