Tja, da es einige wissen. Aber vielen meinen, was ich auch dene das gute Recht gebe. Wollen wir mal sehen was da so ablaeuft.
Ach ja, mein Deutsch wird immer Schlechter. Weil ich es ja nicht praktiziere. Habe ja mit keinem es in mein Alltag zu sprechen.
Du kannst mit Linux machen was du willst, weil angeblich Windows dir vor diktiert, was und wie du es handhaben oder Software installieren musst. Bei Linux ist es das gleiche. Die Programmierer schreiben dir auch vor wie du Linux handhabst.
Es ist leicht zu installieren, aber schlimm um es zu konfigurieren. Das Hauptproblem ist nicht das viele konfigurieren, ist ja alles nach Texte orientiert, aber es hat keine Konsistenz. Einige sachen wird durch hdparm und ifconfig konfiguriert. Andere sachen wird durch Text Files konfiguriert, genauso wie andere sachen werden durch scripts konfiguriert (das alte rc.modules style) anderes wird wie modules.conf, konfig gemacht. Vielleicht kriegt man ein Feedback wenn was falsches laeuft oder wenn man es gemacht hat. Aber mann weiss immer noch nicht, was man falsch gemacht hat, wenn man ALSA konfiguriert, als beispiel.
Wieviel verschiedene versionen gibt es mit Programme, wie PIDGIN, GAIM, YATTM und noch viele 1000 andere. MP3 Players. Mehr als genug. Mann sollte nur 1 bis 2 Optionen lassen, wo es arbeitet und es sollte stabil sein. Linux soll nicht crashen, soll stabil sein, was vielleicht auch richtig ist. Wen der GUI crasht, der Kernel arbeitet weiter. Nur wenn man als beispiel: eine DVD brennt, du ladest eine Datei vom Internet runter und zugleich du schreibst einen Brief, dazu noch, du startest ein Programm. Alles ist verloren, wenn der GUI crasht. Sollte man dann zufrieden sein weil der Kernell weiter arbeitet.
Angeblich verwendet Windows kooperatives multi-tasking. Das stimmt einfach nicht. Windows95 und WindowsNT verwenden präemptives multi-tasking und in der Tat, der multi-task laeuft sanfter als Linux. Es ist nicht eine Leistungs sache, sondern mehr als, das "Gefuehl".
Die Geschwindigkeit des Standard-quantum in NT, ist ca. 20 Millisekunden schnell auf Arbeitsstationen, 50-100 auf Server. Das Standard-quantum unter Linux, ist 50 Millisekunden (neuerdings gesenkt im kernel 2.4). So in Linux jede Anwendung braucht eine längere Zeit. Wo es eigentlich efizienter sein koennte/kann, aber das interaktive leidet drunter
Linux ist auch zu gross. Um mit Windows zu vergleichen, muss man KDE oder GNOME verwenden. Anderfalls wird ein Wettbewerb vergleich veranstaltet, wo einer mehr funktionen hat gegenueber den anderen. Aber wenn du GNOME oder KDE nicht verwendest, dann seht man zu wie ihr es handhabt um zu arbeiten. Um ein vergleich zu machen, zwischen Linux und Windows, du musst GNOME + KDE haben (mit beide hast eine volle kompatibilitaet) dazu noch Mozilla und X und das Kernell. Nicht zu vergessen die ganze versionen von glibc und die dazugehoerige (oft redundante) Bibliotheken, um Anwendungen zum laufen zu bringen. Dazu bei der verwendung des Arbeitsspeichers, Linux bläst NT4 aus dem Wasser (schlecht). Linux kann es nicht.
Linux Anwender sollten doch angeblich lernen, wie man Compiliert von der Quelle. Wie man eine Software konfiguriert, wissen was LPD/LPR ist, sockets, LPP, that/dev/Ip0, wo der Drucker ist, das eth0=inet1, etc.
Wie schaut es denn aus mit dem Downloading von ein kleines Programm aus, bei der benuetzung von apt oder yum oder andere?
Linux laeuft oder besser rennt hinterher. Manche neue Kernell funktionen, wie journaling FS, new automounter, LVM und andere. Sind schon in vorherige Betriebssysteme implementiert worden. Nicht zu vergessen mit KDE und GNOME, das dene die puste ausgeht.
Andere BS Kernell, laden nicht alles in der gleichen Zeit. Das meisste von Windows, haengt nicht alles von die dll ab, weil es dynamisch entladen werden kann. Die meisten Unixes, haben ein Modular Kernel, lange Zeit vor Linux. Mikrokernell wie BeOS kann das ganze Subsystem ausschalten wenn es nicht gebraucht wird.
Es stimmt auch das es kein Virus fuer Linux gibt. Es ist schwer fuer ein Virus das er als Root arbeitet, damit er dein System Crasht. Nur ein Schaedling kann leicht unter denn User Account laufen und denn schaden verursachen. Aber da es viele nicht wollen ist halt eine andere sache. Man nimmt sich immer denn leichten weg.
Linux unterstuetzt DirectX nicht und automatisch fehlt Unterstuetzung für ein grossteil der Hardware funktionen. Der Hauptgrund war die transparente nutzung der Hardware, ein grosses Design aspekt für DirectX.
Manche Test, zeigte das NT threads, nicht nur weniger Zeit brauchen um zu erstellen, sondern signifikanter schneller wechselt. Darueber hinaus macht man Entschuldigungen für Linux, wegen mangel an threaded Anwendungen.
Multi Threaded anwendungen sind besser. Moeglicherweise braucht man etwas mehr Aufwand und sind komplexer zu schreiben, aber zahlt es sich aus mit SMP-Maschinen. Vielleicht zahlt es sich aus in die heutige Systeme, aufgrunddessen die steigerungen der CPU Kerne. Nicht nur wegen die SMP Maschinen, sondern mehr wegen die spezialisierte Chip Systeme in deren benuetzung.
Linux ist nicht wirklich schneller, je nachdem was man tut. Für Serveraufgaben ist er zweifellos, ein Geschwindigkeits Monster. Aber für Desktop Aufgaben sind NT4 Computer (nicht BeOS-Maschinen zu nennen) schneller. Screens haben weniger sichtbare Anzeigen, Applikationen schalten schneller von einem zum anderen. Um ganz zu schweigen von die Tatsache , dass Media orientierte Anwendungen besser unter Windows laufen als unter Linux. (Dies ist teilweise aufgrund von den APIs. X ) was wirklich nicht ideal ist für schnelle Bildschirm Displays,, OSS ist nicht wirklich ideal für ein komplexen Sound, das X-input-system ist nicht zu vergleichen mit Direkt Input, es wirklich nicht, dass es viele MIDI-APIs gibt, mindestens vergleichbar mit DirectMusic, dazu noch es anzusprechen. 3D ist immer noch langsamer unter Linux als unter Windows.
So bitte dann will ich ja Profis hoeren die was dagegen sagen, ob es stimmt oder nicht????
Gruss
Sascha
Linux 15.010 Themen, 106.838 Beiträge
Wenn sich Linux etwas von MacOS abgucken soll, dann hast du Unix nicht verstanden.
Bei Unix geht es in erster Linie um eine flexible Konfiguration. Bei Unix gibt es ein Baukastenprinzip. Um diese Flexibilität zu erreichen wird die Konfiguration des Betriebsystems auf mehrere, kleine , spezialisierte Programme verteilt. Das ist aus der Sicht eines Unix-oder Linuxprogrammierer ein gutes Konzept.
Das bedeutet aber auch das es keine Menüs für die Konfiguration des Betriebsystems gibt . Es gibt da keine Systemsteuerung wie bei Windows.
Aus der Sicht eines einfachen Anwenders ist so ein Konzept unkonfortabel, aber nicht unbedingt für einen Administrator.
Apple Computer oder Microsoft haben sich Gedanken gemacht wie man einem einfachen Anwender ein relativ einfach zu bedienendes Betriebsystem anbieten kann.
Die wollen Windows und MacOS verkaufen.
Und Linux wird von Programmierer entwickelt die Unix von der Arbeit oder vom Studium kennen. Die wollen nur ihr eines Unix oder zumindest ihr eigenes Betriebsystem, mehr nicht.
"Wie man sagt: Ein User will nur einschalten und benuetzen"
Genau, und für diese Anwender wurde Windows und MacOS entwickelt. Diese Anwender sind mit einem Unix wie Solaris 10 total überfordert.
Wobei ich mich auch nur mit Debian relativ gut auskenne. Mit Solaris 10 habe ich auch kein Erfahrung, ist mir viel zu teuer als Privatanwender.