Hallo Leute,
ich will mich endlich mal mit Linux beschäftigen (bin da neu!) und
hab' dazu die c't Ubuntu 7.1 Versionen (32 u. 64 Bit). Es soll nur
ein kleiner Rechner zum Testen werden, als neue Hardware dachte ich
deshalb an sowas:
AMD Athlon64 X2 4200+ AM2 box 2x512kB, Sockel AM2 EE 65W
Gigabyte GA-MA68SM-S2L, NVIDIA Nforce 630a, mATX
2 x 2048MB DDR2 Aeneon PC6400 CL 5, PC6400/800
Compucase 6K11BS sch/silb. 350W ,temp-geregelt, mATX
Samsung HD161HJ S-ATA II 160GB 7200, 8 MB Cache
Samsung SH-S203D bulk schwarz
Ich weiß, dass AMD nicht jedermanns Sache ist, ich hab' seit Beginn
meiner "PC-Geschichte" 1988 jedoch ausschließlich gute Erfahrungen
mit AMD-Prozessoren und nutze die auf allen meinen 3 Windows PCs.
Der kritische Punkt beim Mainboard mag die OnBoard-Grafik sein. Ich
denke aber, dass das für Linux (erstmal?) reicht. Es sollen auch
anfänglich "nur" die üblichen Standard-Anwendungen (Open-Ofice-Paket,
Firefox, Chat-Progs etc.) laufen, später vielleicht mehr ...
Reicht die Hardware so? Könnt Ihr Verbesserungsvorschläge machen
(sicher ...)? Worauf muss man beim ersten Kontakt mit Ubuntu achten?
Welche Version sollte genutzt werden?
Besten Dank schon mal und Tschüß
Bismarck-Stomper
Linux 15.036 Themen, 107.107 Beiträge
Meinst du dieses Board ?
http://www.gigabyte.de/Products/Motherboard/Products_Overview.aspx?ProductID=2601&ProductName=GA-M68SM-S2L
Ich finde dieses Board momentan nicht bei Gigabyte
http://www.gigabyte.de/products/motherboard/Default.aspx?Keyword=GA-MA68SM-S2L&IsChked=N
"NVIDIA Nforce 630a" ist eine gute Wahl.
Von diesen NFore Chipsätzen müßte eigentlich jeder (NForce 4, NForce 490, NForce 590 ...) laufen, wenn man einen halbwegs aktuellen Linuxkernel (>= 2.6.18) nutzt.
Da müßte UDMA , SATA, Netzwerk und Sound funktionieren.
http://www.nvidia.de/object/linux_nforce_1.23_de.html
http://www.nvidia.de/object/linux_nforce_archive_de.html
Die Onboard Grafikkarte wird auf jeden Fall vom proprietären Linuxtreiber von NVidia unterstützt
Grafik Chipsatz : nVidia GeForce 7050PV Serie
http://de.download.nvidia.com/XFree86/Linux-x86/173.08/README/appendix-a.html
Ubuntu nutzt die Treiber vom XServer von http://www.x.org. Es kann sein das dieser Grafikchipsatz da nicht unterstützt wird. Dann müßtest du den originalen Treiber von NVidia herunterladen und installieren:
http://www.nvidia.de/object/linux_de.html
Wenn du den DVI Eingang deines Monitors nutzen willst, dann mußt du sowieso den originalen Treiber von NVidia installieren.
Derzeit würde ich die 32bit Version von Linux installieren, da es viele Programme nur als 32 bit Version gibt.
Der Linuxkernel kann bis zu 64 GByte RAM verwalten, auch die 32 bit Version. (Linux ist kein Windows ;-). Also wegen der RAM Menge ist es nicht notwendig auf die 64 bit Version umzusteigen.
@KarstenW:
Ich verstehe deine Abneigung gegen die 64bit Versionen nicht, ich habe eine Debian-Lenny installiert, AMD64x2, läuft tadellos.
Grüsse
Die 64bit-Version von
Borowitsch ;-)
-
Es kommt darauf an was du für Programme nutzt.
Ich habe Staroffice 8 von Sun Microsystems. Solche 32 bit Anwendungen laufen nicht mit 64 bit Bibliotheken . Und eine chroot Umgebung richte ich mir deshalb nicht ein.
na, wenns extra nen neuer rechner dafuer werden soll, warum dann soviel geld rausscheissen? Kauf dir bei ebaz ne alte moehre zum festpreis von ca. 40 euro. Das sollte fuer die allermeisten Sachen (ausser Spielen) wunderbar ausreichen.
Geeignet ist z.B. so ein Rechner: http://cgi.ebay.de/HP-Vectra-VL-400-SFF-VL400-PIII-866-MHz-512MB-14GB-CD_W0QQitemZ300214286670QQcmdZViewItem?hash=item300214286670
hth
uscos
Sollte auf der Kiste theoretisch laufen. Nur den Grafiktreiber musst du womöglich von Hand aktualisieren (nicht trivial aber auch nicht unmöglich schwer). Allerdings: in zwei Wochen kommt Ubuntu 8.04 raus, welches rundum aktualisierte Treiber dabeihaben wird. Wieso nicht so lange warten?
Es gibt übrigens kein Ubuntu 7.1, denn im Januar ist sicher keins rausgekommen. Was du meinst, ist Ubuntu 7.10 (erschienen Oktober 2007 -> 7. Jahr nach 2000, 10. Monat).
bis er einen rechner (ob nun einzeilteile oder nicht) bestellt und geliefert bekommen hat geht ja noch ein bissl zeit ins land. Ausserdem koennte er so gleich dist-upgrade kennenlernen.
Ausserdem gibts ja noch genug andere Distributionen. PCLOS fuer wirklich einfache Benutztbarkeit, Debian (solaris) fuer server, opensuse und fedora als mittelding und ubuntu als marketingprodukt und coolnesfaktor um bei den freunden mitreden zu koennen. Dann noch gentoo und LFS fuer die Hardcore Leute die wirklich was lernen wollen.
Dann natuerlich noch die ganzen Derivate und kleineren Distributionen (DSL z.B.). Live Distributionen wie Knoppix lasse ich mal aussen vor.
Im uebrigen duerfte die Treiberfrage bei so einem Rechner nicht wirklich entscheident sein. Ausserdem gibts ja nur Kernel und bestenfalls Module - keine Treiber. Insofern sollte er auch problemlos wenn er was lernen will nen eigenen Kernel in Distribution X einspielen koennen und module ohnehin. Die GPU in dem von mir angegeben Rechner laeuft im uebrigen problemlos.
Oha - das klingt aber gar nicht schmeichelhaft für Ubuntu...! Interpretiere ich da jetzt zu viel hinein, oder findest du die Distri tatsächlich so schlecht?
BTW... Gentoo gibt es sogar noch für PowerMacs mit IBM-CPU. Ich kann mich aber nicht so recht entschließen, mir die draufzuhauen, weil ich nicht weiß, wie man den Bootmanager wieder loswird, falls man die Distri doch nicht behalten will. Auf Windowsrechnern ist das ja ganz einfach...
CU
Olaf
oehmm, ja.
Ubuntu wird in meinen Augen nur noch von MacOS geschlagen. Unsicherer geht nimmer und das ist fuer mich ein sehr gewichtiges Argument. Andere moegen einen anderen Fokus drauf legen als ich und kommen somit auch zu einem anderen Urteil.
Es gibt viele Gruende warum ich Ubuntu nicht mag. Dazu gehoeren die community (als: die Menschen die sich auf ubuntuusers rumtreiben und meistens bestenfalls 1/4 wissend sind), die Menschen die daran arbeiten (vielen dort sind FOSS und Gesetzte egal) und eben das marketing und die kommerzialisierung darum. Dann noch die Tendenz alles irgenwie (in meinen Augen) "kaputt" zu machen (sudo z.B.).
Mag komisch erscheinen das ich das als openSUSE user sage, aber so fuehle ich. Und wenn ich von Menschen spreche meine ich natuerlich nicht alle. Es gibt immer ruehmliche Ausnahmen.
Ich will hier nicht rumflamen oder sowas starten. Es ist meine persoenliche Meinung und jeder darf seine eigene haben. Ich gehe damit nicht hausieren wenn ich so wie hier nicht konkret um meine Meinung gefragt werde und ich versuche (und bin imho) idr auch echt objektiv.
Also, my 50 cents.
...für mich muss auch nicht immer alles objektiv sein. Mindestens ebenso spannend finde ich Meinungen von Leuten, die sich gut auskennen, auch wenn es subjektiv wird. Ich kann nur sagen, dass ich bei meinen bisherigen bescheidenen Linux-Versuchen mit Ubuntu am besten klargekommen bin. Wahrscheinlich geht das vielen so, und deswegen treiben sich bei UbuntuUsers relativ viele wenig Wissende herum.
Warum findest du Mac OS unsicher? Auch hier muss man für viele sicherheitsrelevante Operationen erst sein Administrator-Passwort eingeben, bevor man fortfahren kann. Bei Ubuntu kann man nicht einmal ein Adminkonto mit Rootrechten einrichten, sondern muss den Weg über sudo gehen... es überrascht mich etwas, dass du das als unsicher einstufst.
Zum Thema Kommerzialisierung... es ist leider mit allen Dingen so - nicht nur in der Computerwelt! - dass alles merkantil ausgeschlachtet wird, was eine gewisse Popularität überschritten hat. Ganz krasses Beispiel dafür ist der Punk-Rock, der zwar antikapitalistische Anschaungen transportiert, was aber die Plattenfirmen nicht hinderte, solche Bands unter Vertrag zu nehmen und die Bewegung kommerziell auszuschlachten.
Ist SuSE denn durch die Bank weniger kommerziell ausgerichtet? Immerhin steht mit Novell auch ein großes Unternehmen der IT-Industrie dahinter. Mir geht es mit all diesen Dingen so: Mich stört weniger das Kommerzielle, mir ist wichtiger welches Unternehmen dahintersteht, insbesondere ob es mir sympathisch ist. Da kann ich z.B. Apple, Sun und IBM weit mehr abgewinnen als beispielsweise Microsoft.
CU
Olaf
Kurz zu Ubuntu:
Auch dort existiert ein rootkonto, sonst wuerde sudo gar nicht funktionieren. Dies ist auch sehr einfach wieder entsperrbar. Speziell bei Ubuntu habe ich mit sudo ein problem damit, dass das Kennwort des 1. Benutzer zum rootzugang benutzt wird. Und das Kennwort des normalen Benutzer den man halt zum taeglichen arbeiten benutzt ist ehrfahrungsgemeass grottenschwach...
Zu Apple:
Apple hat strukturelle Probleme was softwaretesting angeht. Linux geht das Problem durch offene Codeeinsicht an, Microsoft testet mittlerweile sehr rigide, nach strengen Vorgaben und konsequent ihre Software (auch mit automatischen testing tools). Beide "Produkte" haben auch tatsaechlich sehr wenig Sicherheitsprobleme. Apple waehrend dessen tut weder das eine noch das andere und ist vermutlich das einzige Produkt auf dem Markt in dem der Kernel wirklich noch boese Ueberraschungen bereithaelt. Dies sieht man auch an den Sicherheitsproblemen der letzten 12 Montate die den Kernel betreffen, wenn man alle 3 Produkte vergleicht.
Ferner kommuniziert Apple sicherheitsprobleme sehr schlecht nach aussen und ist noch langsamer als MS was das releasen von patches angeht.
Zusaetzlich dazu scheint Apple leider schlicht keine sicherheitskultur zu besitzen. Wer z.B. monatelang und ohne patches alle applikationen auf dem iphone mit rootrechten laeufen laesst, der hat wohl das Wort Sicherheit restlos aus seinem Vokabular entfernt.
In der Essenz ist es so: Apple bringt die einzig mir bekannten Produkte auf dem Markt, die noch durch direkte Attacken auf das Betriebssystem an sich korrumpierbar sind. Bei den anderen Betriebssystemen muss man in aller Regel einen Application based attack vector einschlagen.
An der Stelle sei auch noch einmal an safari erinnert: der ist sicherheitstechnisch eine ganz grose Katastrophe gewesen, weil man selbst bei einem browser wohl nicht an die sicherheit gedacht hat.
Bei Apple stimmt der Mindset einfach nicht. Hart, aber das ist das, was deren Produkte wirklich unsicher macht.
...dass Apple-User, was sicherheitstechnische Fragen angeht, viel zu lange auf einer Art "Insel der Seligen" gelebt haben und Apple somit nie eine stärkere Nachfrage nach mehr Sicherheit erreicht hat.
Eine letzte Bastion ist ja noch geblieben: Bislang gibt es keine Viren für Mac OS X "auf freier Wildbahn", die verfügbaren Scannerlösungen wie ClamXAV konzentrieren sich ganz auf Windows-Viren. Sinn der Sache: Falls sich ein Macuser einen Windows-Virus z.B. per Mail einfängt, soll er gehindert werden, ihn weiterzugeben an andere, die ihrerseits mit Windows unterwegs sind.
Das mit der "Insel der Seligen" träfe zwar auch auf Linux zu, aber das Konzept der Linux-Community funktioniert eben völlig anders als bei Closed-Source-Unternehmen wie Apple und Microsoft. Und letztere sind in den letzten Jahren so harsch kritisiert worden, dass sie einfach reagieren mussten. Bei Apple kommt das wohl erst noch...
CU
Olaf
naja, den usern kann man wohl schlecht die schuld geben. Eher der Marketingabteilung. Das das auch nach hinten losgehen kann scheint Apple auch mehr und mehr klar zu werden.
Denn wenn ich ganz ehrlich bin: Aufgeben möchte ich die Apple-Plattform keinesfalls. Dafür gibt es einfach viel zu viel, was mir viel zu gut daran gefällt, und hinzu kommt, dass ich mit Logic Studio eine Software benutze, die ausschließlich unter Mac OS X läuft. Du hast recht - die User werden systematisch in Sicherheit gewogen. Viele können gar nicht überblicken, was sicher ist und was unsicher.
CU
Olaf
So Leuts,
ich hab’ jetzt mal ein wenig gewartet, was da so für Meinungen und Tips kommen.
@ KarstenW: Es ist dieses Board: http://www1.hardwareversand.de/articledetail.jsp?aid=20349&agid=602
Die 4 GB RAM wollte ich in erster Linie deswegen haben, weil die OnBoard-Grafik auf den Arbeitsspeicher zugreift.
@ uscos: Danke für den Tip mit ebay, hab’ ich auch schon dran gedacht. Ich hab’ mich aber dann doch für ’nen neuen Rechner entschieden.
@ the mic: Ja, hast Recht, ist Ubuntu 7.10
Wo bekomme ich denn Ubuntu 8.04 ggf. in 2 Wochen her?
@ uscos: Na ja, hardwareversand liefert in 4 Tagen, da bin ich bisher immer sehr gut und schnell bedient worden. Der Rest wird mir dann leider schon zu Linux-technisch … Sorry …
@ the rest: Leute, nicht bös’ sein, wird mir zu technisch …
Ich bin bisher reiner Windows user. Mit XP Prof. im Heimnetz sehr zufrieden, und Vista-abstinent ...
Ich möchte mich mal in Linux reinarbeiten, da fehlt mir jetzt noch der background.
Vielen Dank jedenfalls an alle für die Tips.
Ich denke mal das dieser Chipsatz unterstützt wird.
Wenn ich mir einen eigenen Linuxkernel übersetze habe ich keine genaue Chipsatzbezeichnung für NForce gefunden.
Vielleicht hat NVidia eine einheitliche Treiberarchitektur entwickelt, so das man nur einen Treiber für SATA (und dann natürlich jeweils für UDMA, Sound und Netzwerk) braucht und jeder NForce Chipsatz funktioniert damit.
Genau so ist es bei den NVidia Grafikkarten. Da gibt es auch nur einen einzigen Treiber mit dem so ziemlich jede NVidia Grafikkarte läuft.
Wenn du nur mal reinschnuppern willst, dann kannst du ja eventuell auch die VMware Workstation als Emulator nutzen und Linux oder eventuell ein Unix wie FreeBSD oder Solaris unter Windows starten.
Da brauchst du nicht gleich die gesamte Festplatte für Linux partitionieren:
http://vmware-workstation.softonic.de/
http://de.wikipedia.org/wiki/VMware
Du brauchst dir nur noch eine gültige Serial besorgen. Die Testversion ist voll lauffähig.
@ KarstenW: Besten Dank!
Ich möchte, da ich mit Linux anfange, in meine problemlos und fehlerfrei funktionierenden
Win XP Prof. Systeme keine Emulationen mit Linux basteln. Ich mag -rein subjektiv- solche
Mischsysteme auch nicht. Das ist vielleicht eine etwas merkwürdige Einstellung, kann man
auch Vorurteil nennen, ich will da aber eher übervorsichtig sein. Never change a running
system! Vielleicht ist es auch ein wenig "großkotzig", aber die 230 EUR für das System tun
mir nicht weh.
Frage mal noch: Wenn ich auf einem System Win XP installiere, muss ich Board-, Sound- und
Netzwerktreiber gesondert aufspielen. Fällt das bei Linux weg? Bringt Linux das alles schon
mit?
Du siehst, ich bin blanker Linux-Anfänger.
Danke und Tschö
Bismarck-Stomper
Der Linuxkernel (Datei /boot/vmlinuz-????) ist wie ein großes Programm, in dem die Treiber auch mit drinnen sind.
Deshalb muß auch der Linuxkernel möglichst aktuell sein, weil dann auch die neuesten Treiber schon dabei sind.
Man kann aber auch noch Treiber nachinstallieren. Es gibt ein paar Firmen die Open Source Treiber programmieren.
Diese NForce Treiber sind aber schon im Linuxkernel dabei.
Wenn du dich mal genauer über die aktuelle Linuxkernelversion informieren willst, dann kannst du hier mal vorbeischauen:
http://www.kernel.org/
Der Emulator VMware Workstaion ist wie ein PC, in dem die ganze Hardware mit Ausnahme der CPU emuliert wird.
Das Gastbetriebsystem wird in einer virtuellen Festplattenpartition in einer Datei gespeichert. Ich nutze gern VMware Workstation unter Linux, da mein Scanner unter Linux nicht funktioniert. Ich starte ein Windows XP oder Windows 2000 unter Linux und kann so meinen Scanner nutzen.
Das ist wirklich praktisch.
Du mußt eine erweiterte Partition anlegen und kannst dann Linux in den logischen Partitionen installieren.
Da muß zumindest die swap Partition angelegt werden und die / Partition (Laufwerk C: unter Windows).
Und dann kann man Unterverzeichnisse wie /home, /var und /usr noch auf eine eigene Partition auslagern. Die Verzeichnise /home, /var u.s.w dienen dann als Mountpoint (Einhängepunkt).
Dazu braucht man halt ein wenig Erfahrung was die Größe angeht (zumindest bei meinem Debian).
Diese Partitionierung würde bei Verwendung des VMware Emulator erstmal wegfallen. und du köntest ganz einfach die Datei in der das Gastbetriebsystem installiert wird löschen, um Linux zu deinstallieren.
Das mußt du selbst wissen.
Grundsätzlich sind die Treiber schon enthalten im Kernel.
"Problematisch" sind Treiber, die nicht der GPL unterliegen und dann je nach Distribution nicht im offiziellen Teil enthalten sind und u.U. nachinstalliert werden müssen.
Ebenso sind Scanner und Drucker unter Umständen schwierig oder gar nicht in Betrieb zu nehmen, weil die Hersteller keine Hardwaredaten veröffentlichen und deswegen keine Treiber programmiert werden können.
WLAN kann noch stressen, da gibt es aber die Möglichkeit, über die Windowstreiber zu tricksen, wenn es nicht so funktioniert.
Ansonsten sehe ich bei der von Dir genannten Hardware grundsätzlich keine Probleme, da ein Chipsatz z.B. als Chipsatz angesprochen wird, egal ob das Board von Asus, Gigabyte oder MSI ist.
Ansonsten siehe tuxus, einfach mal die iso-Datei herunterladen und als Livesystem betreiben, da siehst Du schon mal, was in etwa geht und was nicht.
Solche Livescheiben gibt es auch von Knoppix, Suse usw., aber bei Ubuntu kannst Du im Gegensatz zu Suse auch gleich aus dem Livesystem heraus installieren.
Bei mir läuft Ubuntu 7.10 übrigens auf einem PIII 1 GHz, Kubuntu auf einem 650er, also so exorbitante Hardware ist nicht notwendig.
Linux profitiert doch eher vom RAM als von CPU-Leistung.
Ein lauffähiges und zu nutzendes System ist aber immer möglich und Treiberstreß gibt es unter Windows ja auch.
kleine korrektur: auch mit openSUSE kann man sowohl aus vom livesystem installieren oder von windows aus.
In Bezug auf Apple und Mac im zusammenhang mit Unixartigen Systemen bin ich der Meinung:
Es ist einer der Wenigen Hersteller die gezeigt haben was ein Unixsystem leisten kann wenn man völlg
veraltete Methoden wegläßt.
Beos war von der Struktur her vielen Systemen um Jahre voraus ist.
Dafür das es wie einige andere Bs durch falsches Marketing und Timing nicht mehr existiert und weiterentwickelt wird
kann es nicht.
Wenn ich an die Bastelei mit dem Xserver denke.. Das ändert sich nie.
Beim neuen Kubuntu bricht selbst dpkg-rekonfigure xserver-xorg kurz vor schluß ab.
Auch ich mag die Methode von Ubuntu mit Sudo nicht. Da stimme ich zu es ist unsicher und oft grotesk umständlich.
Aber zu behaupten es sei völlig unsicher kann daraus nicht geschossen werden. Ubuntu hat im Gegensatz zu anderen Linuxen
keine unnütz laufenden Dienste.
Apple hat das glaube ich besser gelöst obwohl da auch eine Ahnliche Methode verwendet wird.
Was ist denn an Unix völlig veraltet ?
Unix wurde noch nie mit Menüs wie Windows konfiguriert.
Das geht ja auch nicht , weil auf Unixservern kein XServer installiert wird und deshalb auch kein Grafikmodus verfügbar ist.
Den ganzen Quatsch mit der Systemsteuerung hat sich Microsoft ausgedacht, weil die ihre Anwender für unfähig halten mal ein Handbuch zur Systemadministartion zu lesen.
Bei Unix geht es nicht darum einem Computerspieler eine intuitive Bedienung zu bieten, sondern um Flexibilität und Erweiterbarkeit.
Diese Eingenschaften lassen sich um besten programmieren ,wenn man kleine spezialisierte Programme für die Konfiguration verwendet.
Das wird sich auch in Zukunft nicht ändern.
Im Desktopbereich finde ich es auch besser wenn man die Konfiguration in einer Konsole machen kann. Immer wenn Windows nicht mehr startet ,muß man Windows meist neu installieren und bei Unix kann man auch mal eine kleine Reparatur machen und muß nicht das ganze System neu aufsetzen.
Das habe ich bei meinem Debian schon immer geschätzt. Es wird bei Debian immer ein Single User Mode konfiguriert, in dem man diverse Reparaturen durchführen kann , auch wenn der Desktop nicht mehr startet.
Warum muß ein Betriebsystem intuitiv bedienbar sein ?
Wenn jemand mit Autocad Maschinenteile konstruiert oder mit Eagle Leiterplatten herstellt, der wird wohl noch so viel Verstand haben die Konfiguration von einem Desktoprechner unter Unix mit CDE oder KDE Desktop zu erlernen.
Ich möchte beispielsweise Mikrocontroller von Atmel unter Linux mit dem Compiler avr-gcc programmieren. Da dürfte die Konfiguration von Debian das geringere Problem sein.
Du hast so gesehen natürlich recht, aber bei den Methoden wird oft zuviel geändert.
Beim Text für den Xserver steht vieles drin was man nicht gebrauchen kann.
Warum muss die Maus aufgeführt sein wenn ich nur die Wiederholfrequenz des Monitors einstellen will?
Nun gut das ist kein so gutes Beispiel,
Es ist aber nicht einheitlich oder eindeutig, Der gleiche Eintrag in der xorg.conf gibt je nach Linux
völlig andere Wiederholfrequenzen oder gar Auflösungen.
Bei Debian kann man sich ja wenigstens auf die Eindeutigkeit verlassen.
Bei Suse mußte ich -- bei dem gleichen Eintrag in der xorg.conf noch noch nachträglich mit
der Gui von 75Hz auf 85hz Bildwiderholfrequenz stellen.
Und das neue Kununtu, selbst dpkg-reconfigure xserver-xorg funktioniert nicht mehr
es geht nicht bis ganz zuende. Bisher hat soetwas sogar bei den Alpha Versionen funktioniert.
Bei UNIX scheint der User das Betriebssystem zu sein, alles ist passiv fast nichts kann es von sich aus.
Das hab ich mit veraltet gemeint.
Bei Mainframes soll es Masken gegeben haben so das man garnichts reinschreiben konnte wo es nicht
hinsollte.
Ein Kursteilnehmer hat entnerft einen Linuxkurs verlassen weil mit einer falsch gesetzten Leerteile in einem
rm Befehl die ganze bisherige Arbeit weg war.
rm Befehl die ganze bisherige Arbeit weg war.
doch wohl eher mit einem falsch gesetzten Parameter.
Andererseits kann ich mir keine wirkliche situation vorstellen, in der man *aus versehen* ein "rm -f *.*" eingibt...
Volker
Ganz einfach: Weil die Masse der User es seit Ende der Achtziger Jahre so verlangt. Den Zusammenhang zwischen Angebot und Nachfrage kennst du?
> Im Desktopbereich finde ich es auch besser wenn man die Konfiguration in einer Konsole machen kann.
Daran hindert dich ja auch niemand - aber lass doch den anderen ihre grafische Benutzeroberfläche.
CU
Olaf
Und warum benutzen diese Anwender nicht einfach Windows ?
Für solche Anwender ist Windows entwickelt worden, aber nicht Unix.
"Den Zusammenhang zwischen Angebot und Nachfrage kennst du?"
Ich weiß nur das es Anfang der 90er Jahre kein freies , brauchbares Unix für Privatanwender wie mich gab.
Und deshalb wurde Linux von Privatanwendern entwickelt , weil die Softwareindustrie unfähig ist.
Wen interessiert denn heute noch, wie die Situation Anfang der Neunziger war - damals lebte sogar Atari noch...
Wenn du keine grafischen Benutzeroberflächen magst, dann benutze sie halt nicht. Aber versuche doch nicht, den Einsatz von GUIs als mit den Grundsätzen von Linux für unvereinbar zu erklären und diejenigen, die sie dennoch benutzen wollen, gedanklich aus der Community aussperren zu wollen.
CU
Olaf
Diese "Masse" übersieht aber - genau wie du ;) - das z.B: windows keineswegs "intuitiv" ist. Bei der Bedienung gehts ja noch, aber "intuitiv konfigurierbar" ist es definitiv nicht.
Wäre es das, dann hätten wir hier auf den Technischen Brettern deutlich weniger zu tun - wobei viele der Anfragen sich zugegebener Maßen erübrigen würden, wenn die Leute sich wieder angewöhnen könnten, anleitungen zu lesen und die Existenz einer "Hilfe"-Funktion nicht nur zur Kenntnis zu nehmen...
Volker
Nein Volker - intuitiv konfigurierbar ist kein Betriebssystem. Ich finde aber schon, dass es die Konfiguration eines Systems erleichtern kann, wenn dies über eine Benutzeroberfläche erfolgt, die einem zusagt. Wer lieber die Konsole nutzt, hat ja in jedem System die Möglichkeit die zu tun, auch unter Windows und sogar unter Mac OS :-)
CU
Olaf
Wenn du damit den X11-Server meinst: Das Theater hat man leider auch unter Mac OS X :-(
Nicht etwas, dass das System an sich oder die meisten Anwendungen das brauchen würden - alles was "native" unter Mac OS X läuft, kommt ohne X11-Server aus. Dazu zählen bedauerlicherweise aber nicht Gimp oder OpenOffice. Zu letzterem gibt es wenigstens noch die Alternative NeoOffice, außerdem soll OO3 im Herbst endlich auch offiziell unter Mac OS X laufen - ohne X11. Bei den Bildbearbeitungsprogrammen sieht es dagegen ganz mau aus, so dass ich diesen blöden X11-Server wohl bis ans Ende aller Tage mit mir herumschleppen werde :-(
CU
Olaf
Da kannst du selbst mal erkennen das du von Unix mit seinem X Window System gar keine Ahnung hast.
Der XServer ist Teil des X Window System und bietet dem X Client die Möglichkeit , seine Ausgaben auf dem Monitor darzustellen.
Ohne XServer kann ein Programm was im Grafikmodus läuft seine Ausgaben gar nicht darstellen.
http://de.wikipedia.org/wiki/X_Window_System
Ihr Mac Benutzer scheint ja nicht mal von eurem (eigenen ?) Betriebsystem richtig Ahnung zu haben .
Oder hat euch dieses Betriebsystem Apple vorgesetzt ?
Warum programmiert ihr nicht euer eigenes Betriebsystem ?
Ich laß mir als Debian Anwender jedenfalls keine Vorschriften machen wie ein Betriebsystem zu funktionieren hat, weder von Steve Ballmer noch von Bill Gates.
Bei Debian gibt es ja mit der X Konfiguration auch kaum Probleme.
Aber selbst bei Systemen die auf Debian beruhen wird oft mal was geändert. Wohl ein Grund warum viele das Origial Debian nehmen.
Gegen Textbasierte Administration ist grundsätzlich nichts einzuwenden.
Bei SLackware ist es noch etwas ausgeprägter als bei Debian.
Und du hast recht, einiges geht leichter als mit einer Gui.
Anderes ist Textbasiert viel zu umfangreich -- nicht nur für Laien.
in Gewisser Weise gibt es ja doch eine Vorschrift die Linux und damit auch Debiananwendern vorschreibt wie
ein Betriebssystem zu funktionieren hat. Das X Window System.
Apple, BeOs, Windows und sogar die alten Amigas haben gezeigt das es auch ohne X basierte Fenstertechnik geht.
Wenn ich eine Netzwerkfahige Gui brauche kann auf einem System immer noch ein X Server intalliert werden
wie auch beim Mac.
Schönen Dank für die Belehrung - wie auch immer du zu dieser eigenartigen Schlussfolgerung kommst.
Noch einmal: Die separate Installation des X11-Servers ist nur für Programme erforderlich, die nicht "native" unter Mac OS X laufen. In meinem Fall sind das nur zwei, nämlich Gimp und OpenOffice - wobei für letzteres Abhilfe in Sichtweite ist. Eine Beta von OO3 ohne(!) X11 ist bereits erschienen - und funktioniert auch.
> Warum programmiert ihr nicht euer eigenes Betriebsystem ?
Vielleicht weil Mac OS X auch so ganz vorzüglich funktioniert? Oder einfach, weil wir besseres zu tun haben?
> Ich laß mir als Debian Anwender jedenfalls keine
> Vorschriften machen wie ein Betriebsystem zu funktionieren hat,...
Von mir aus kannst du dir auch dein Auto selber zusammenbauen, wenn du es denn durch den TÜV bekommst - aber erwarte doch nicht von anderen, dass sie die gleichen Vorlieben pflegen wie du.
CU
Olaf
Und Module sind... genau: Treiber oder Teile von Treibern.
Hi,
Du hast doch sicher schon einen PC? Dann benötigst Du keinen zweiten.
Du musst Linux nicht installieren - es läuft auch von CD aus. Das ist zwar etwas langsamer, aber zum mal anschauen reicht das. Installieren kannst Du es später, wenn es Dir gefällt. auch neben Dein Windows. Bei jedem Start kannst Du dann auswählen, ob Du Win oder Lin starten möchtest.
Also: In 10 Tagen Ubuntu Hardy brennen, CD rein, starten, warten, testen. Das wars.
Das Wiki von ubuntuusers.de ist übrigens sehr gut.
Willkommen bei Linux!
...Linux auf eine zweite Festplatte installieren. Oder auf eine weiter hinten gelegene Partition der ersten Festplatte. Den Bootmanager wird man über die Windows-Wiederherstellungskonsole von der System-CD mit FIXBOOT / FIXMBR schnell wieder los. Wäre mir ehrlich gesagt lieber als die Hantiererei mit einem schwerfälligen "Linux aus der Tüte" von einer bootfähigen CD. Außerdem lernt man ein System zum Teil schon beim Installieren kennen!
CU
Olaf
Hallo
Bismarck-Stomper
Ein Linux das fest auf einer Platte installiert ist ist doch besser.
Der Speicherbedarf ist geringer und es wird kein Laufwerk ständig benötigt. Nicht das ein LiveLinux schlecht liefe
aber die Zugriffe auf die CD Stören etwas im Alltagsbetrieb.
Laß dich nicht durch die Grundsatzdiskussionen verunsichern das von dir gewählte Ubuntu hat diese Probleme
nicht und läuft hier gerade auf einem 600er Athlon mit nur 348MB RAM.
Und wie KarstenW schon gesagt hat NVIDIA funktioniert mit Linux fast immer.
Es gibt auch Freie Ubuntubücher als Pdf -- Freenet hatte sowas.
Ein "ExtraPC" für Linux ist ne tolle Sache, habe ich ja auch.
Aber nen X2 mit 4GB RAM???
Kauf dir lieber ein CeleronS oder einen Sempron 1100 mit 1GB vlt. auch 2GB RAM, dazu nen "billiges" nForce-Board (da gibbet weniger Probs mit der Geräteerkennung) und dann hau das alles in nen günstiges Case. Eine 160GB reicht alle Male, wobei bei den Preisen auch ne 250GB her kann ;-)
Biostar GF7050-M2 (µATX, Sound, VGA, DVI, LAN, SATAII RAID)
AMD Sempron64 LE-1150
A-DATA DIMM 2 GB DDR2-800 Kit
GeForce 8500GT bzw. 8600GT, was der Geldbeutel halt hergibt.
Mit der Kiste kannste Linux supergut fahren! Außerdem kannst - trotz des Semprons - dank "wine" sogar mit der Kiste normale SPiele daddeln. Hab einen 3700+ mit einer 8400GS gefahren und da rennt CSS auf 1280x1024 ohne Probleme =) Wenn du das Geld hast nehm den X2 3600+, der reicht lang hin.
Kurzum: Beim RAM und CPU sparen, billiges Brett und dafür ne bessere Graka und vlt. nen gutes Netzteil mit schicken Case: Kohle schenst du ja zu haben ^^
Ansonsen schau mal bei eBay nach einem schönen alten Dell Optiplex (oder wie die heißen). SO ne P4 Möhre mit ner onBoardgrafik bzw. dann einer "PCI" Grafikkarte aus Ur-Alt-Zeiten reicht auch laaang hin ^^
Das auch etwas ältere Semprons gut mit Linux laufen kann ich sofort bestätigen.
Das recht K7VT4A+ sogar unglaublich gut -- trotz oder gerade wegen Via Chipsatz.
Bei einem Neuen Rechner ist aber der Vorteil das die DDR 2 Speicher momentan wirklich preiswert sind.
Eine gute Grafikkarte lohnt sich auch bei Linux.
Und wenn das Motherboard lange halten soll geich eins mit den neueren Kondensatoren die früher nur auf Grafikkarten drauf waren.
All dies geht wunderbar auch mit den für AMD CPUs vorgesehenen.
@bismarck-stomper: Um noch deine Frage nach dem Bezug der neusten Version von Ubuntu zu beantworten: Die kannst du kostenlos von deren Homepage herunterladen. Siehe www.ubuntu.com
Wenn du auch noch in andere Distributionen reinschauen willst, kannst du auf Distrowatch schauen, da sind diverse Distributionen nach "beliebtheit" sortiert aufgeführt: www.distrowatch.org
Bei Wikipedia gibt es ebenfalls eine umfangreiche Liste: http://de.wikipedia.org/wiki/Liste_von_Linux-Distributionen
@ the mic:
Allerbesten Dank, ich werde mir das mal alles ansehen.
Wenn ich mir das neue ubuntu herunterlade und brenne, ist die CD/DVD dann auch gleich bootfähig?
Wie kriege ich denn das ggf. hin?
Du siehst, ich bin da nicht so fit ...
Besten Dank
Bin zwar nicht the_mic, aber die ISO von Ubuntu ist natürlich bootfähig, Du mußt eben nur im BIOS die Bootreihenfolge so einstellen, das vom CD-Laufwerk zuerst gestartet wird. Manchmal gibt es ja wie bei Asus auch die Möglichkeit mit F8 das Bootlaufwerk auszuwählen, ohne ins BIOS zu gehen.
Danach sollte eigentlich der Ubuntu-Startbildschirm kommen, dort stellst Du ebenfalls mittels der F-Tasten Sprache und Auflösung ein, wenn Du möchtest und per Enter startest Du das Livesystem.
Dann kannst Du von dort aus auch gleich die Installation vornehmen, wenn Du möchtest, auf dem Desktop befindet sich ein Install-Button, der das eigentlich selbsterklärende Installationsprogramm aufruft, aber Du kannst ja vorher erstmal ausgiebig von CD testen.
@fakiauso
Besten Dank!
Das mit der BIOS-Einstellung der Boot-Reihenfolge is' klar, is' ja wie bei XP.
Ich hatte ubuntu 7.10 mal ganz kurz gesehen, als ein Freund das von der oben beschriebenen c't-DVD installiert hat.
Das sah für mich so interessant aus, dass ich mich jetzt auch mal genauer damit beschäftigen will.
Besten Dank daher nochmal an alle für die vielen Infos (auch wenn mir einiges noch zu technisch ist).
Jetzt warte ich mal auf die Hardware, die hab' ich wie ganz oben beschrieben bestellt.
Dann geht's an's Installieren, vielleicht auch schon mit der neuen ubuntu-Version, mal sehen ...
Ich bin mir aber sicher, dass ich mit der einen oder anderen dummen Fragen dann nochmal hier "eindringe".
Danke und Tschö
Bismarck-Stomper
Wichtig zu erwähnen und eine entscheidende Stolperfalle ist die Art und Weise, wie die CD gebrannt werden muss: Du darfst natürlich nicht einfach die heruntergeladene ISO-Datei auf eine Daten-CD brennen. Stattdessen musst du über die Image-Brennfunktion das ISO direkt auf CD brennen. Bei Nero glaub unter Recorder -> Image brennen (oder so ähnlich... Nutze Windows und Windows-Software schon ewigs nicht mehr ;-) ).
...sind Tools, die auf das Brennen solcher CD-Images spezialisiert sind. Mit Nero funktioniert es so:
http://www.tippscout.de/iso-cd-image-mit-nero-brennen_tipp_2936.html
CU
Olaf
Danke Olaf, die Seite ist ein Bookmark wert :-)
Hi Leuts,
hardware is' da, und nu geht's los mit meinen dummen Fragen
--> http://www.nickles.de/static_cache/538408487.html
Bismarck-Stomper