Hallo xdata,
das mit dem Arbeiten als Administrator ist leider wirklich ein Problem und vielen Leuten ist nicht einmal bewusst, dass sie eben als Administrator angemeldet sind, bzw dass ihr Nutzeraccount ein Administratorenaccount ist. Dank alter Tradition ist dem eben leider auch schwer bei zu kommen und Du hast Recht, dass Software sich idR nur als Administrator installieren lässt, dies ist aber auch gerade gut so und wie oft installiert man Software? Und für den Fall, dass man zu faul ist den Account zu wechseln gibt es immer noch "Ausführen als..." im Kontextmenü. Das ist nur teilweise ein Windowsproblem, denn gleiches Problem hätten eben diese Anwender auch unter anderen Betriebssystemen und daher auch meine Vermutung, dass sie es unter einem anderen Betriebssystem ähnlich handhaben würden und damit die Sicherheitsvorkehrungen des Systems aushebeln.
Was aber bei Windows leider oft noch hinzu kommt ist, dass auch einige Software unter normalen Nutzeraccounts nur eingeschränkt läuft, also bei der normalen Arbeit auch voraussetzt, dass der Nutzer administrative Rechte besitzt... das ist schlampig und da trägt MS auch eine dicke Mitschuld in meinen Augen.
Was den Test Windows2000 gegen Redhat Linux angeht würde ich aber nur mit Vorsicht genießen, denn da gibt es so viele versteckte Möglichkeiten so einen Vergleich mal für die eine, mal für die andere Seite zu entscheiden, relativ unstrittig ist aber, dass die alten NT-Kernel ziemlich schnell arbeiten, bei Windows hakt es meist mehr beim Sheduler. Aber nochmal zurück zum Test... je nachdem was man auf dem System laufen lässt, mit welchen Einstellungen und Optimierungen, ob man selbst den Kernel gebacken hat oder einen beliebigen out-of-the-box nimmt fällt die Entscheidung mal für das eine System, mal für das andere... der große Vorteil von Linux ist jedoch, die extreme Anpassbarkeit und Skalierbarkeit, bei der Windows schnell an die Grenzen stösst. Ich würde aber fast eine Wette eingehen, dass eine Standardinstallation eines Windows2000-Desktops erst einmal flotter zu Werke geht als eine Standardinstallation eines RedHat das zur selben Zeit aktuell war mit KDE.
Wenn ich es richtig verstanden habe ist eine gute DTF nach der Installation ein Systemprogramm welches
doch nicht so einfach übergangen werden kann wie oft behauptet.
Hmmm... das will ich jetzt so nicht unterschreiben. Was ich oben beschrieben habe war das Grundprinzip einer DTF, die Umsetzung ist dann immer noch einmal etwas anderes und da gibt es mitunter wirklich lausige. So hat es ein Hersteller geschafft, dass z.B. die Konfiguration beliebig änderbar war, aus jedem Kontext heraus... damit fällt Sicherheit erst einmal flach. Ebenso dürfte nicht jede Application Level Firewall auch wirklich richtig überprüfen, ob ein zulässiges Programm eventuell von einem anderen Programm oder Prozess missbraucht wird, oder ob wirklich nur der Nutzer eine Seite aufrufen will. Und auch der Missbrauch eines anderen Programmes lässt sich wohl so anstellen, dass die Firewall es nicht bemerkt.
Die Aussage mit dem leichten Umgehen einer DTF ist auch immer so eine Sache... es hängt davon ab wer es in welchem Zusammenhang äußert. Ein fähiger Hacker wird kein großes Problem damit haben eine DTF auf einem System zu umgehen welches er kennt, wenn er also weiß welche DTF auf dem System läuft, denn er kann diese gezielt aushebeln.
Wenn diese Aussage jedoch ein beliebiger User X in einem Forum äußert und generalisiert ist sie schlichtweg dummes Geblubber, denn es gibt zig verschiedene Produkte, die unterschiedlich zu Werke gehen und unterschiedliche Schwachstellen aufweisen. Ein 08/15-Trojaner kann zwar vorgefertigte Angriffsvektoren für eine bestimmte Anzahl Y an verschiedenen Produkten und verschiedenen Versionen dieser Produkte mitbringen, aber es wird immer Produkt Z geben, dass er nicht einfach umgehen kann... man hat so also immer noch die Chance den Schädling zu blockieren und zu erkennen, die man ohne eine DTF erst garnicht hätte... und in Zeiten missbrauchter AdServer, gehackter Webpräsenzen seriöser Firmen und Institutionen, Viren und Trojanern auf nagelneuen Datenträgern und durch Einbrüche auf Entwicklungsservern verseuchte Software zeugt in meinen Augen der verbreitete Spruch mit "Brain 2.0" in meinen Augen eben nicht gerade von allzuviel eben davon. Mitdenken ist ein wichtiger Punkt, aber so lange nicht jemand in Echtzeit sämtliche Daten verzögerungsfrei analysieren und verstehen kann, die so über sein Netzwerkkabel wandern, der sollte sich hüten davon auszugehen dass dies alles so seine Richtigkeit hat.