Dateisysteme für Datenträger arbeiten generell alle nach dem gleichen Prinzip. Man kann beliebig viele Verzeichnisse und Unterverzeichnisse anlegen und darin Daten speichern. Windows-Anwender müssen sich dabei auch noch mit Laufwerkbuchstaben herumplagen, die bei Linux längst abgeschafft sind.
Das Problem Nummer 1 ist allerdings überall das gleiche, um mit steigenden Speicherkapazitäten wird es immer größer: Dinge wieder finden. Jeder kennt es: man weiß, dass man irgendwo mal einen Text, ein Bild oder eine Software gespeichert hat, aber bloß wo? Und egal, wie sehr man versucht, seine Daten clever zu organisieren - irgendwann ist der Durchblick weg. Auch ist das Hangeln in Verzeichnissen zermürbend.
Typischer Fall: eine Datei wird mit einem Programm irgendwo gespeichert. Dann will man sie mit einem anderen Programm öffnen. Da Programme typischerweise diesbzüglich nicht miteinander kommunizieren, muss man sich im zweiten Programm dann wieder zum Verzeichnis hangeln, in dem die Datei zuvor gespeichert wurde.
Laut Ubuntu Gründer Mark Shuttleworth finden Menschen Informationen inzwischen schneller über Google, als auf ihren eigenen Datenträgern.
Shuttleworth fordert jetzt ein neues Dateisystem-Konzept, das sich um exakt diese Probleme kümmert. Anwender sollen nicht länger gezwungen sein, in "Verzeichnis-Struktur"-Modellen zu denken. Diese Revolution würde beispielsweise bedeuten, Verzeichnisstrukturen schlichtweg komplett abzuschaffen - für viele kaum vorstellbar.
Interessante Ansätze wurden jetzt beim "GNOME user experience hackfest" in Boston diskutiert, die in dieser PDF-Präsentation vereinfacht zusammengefasst sind: How To Improve on File Management.
Ein interessanter aktueller Ansatz für ein neues Dateisystem wird beispielsweise auf www.wizbit.org beschrieben.
Die Schaffung eines neuen intelligenten Dateisystems, würde für "kostenlose Betriebsysteme" wie Linux auf jeden Fall einen enormen Vorsprung gegenüber ihren kommerziellen Konkurrenten bringen. Mark Shuttleworths kompletter Beitrag zur Sache findet sich hier: www.markshuttleworth.com
Windows-Anwender müssen sich dabei auch noch mit Laufwerkbuchstaben herumplagen, die bei Linux längst abgeschafft sind.
Wie soll man etwas abschaffen, dass es nie gab?
Assoziative Dateisysteme sind aber als Idee so neu auch wieder nicht (BeOS/Zeta besitzt sowas in die Richtung). Meist scheiterten sie bisher aber wohl daran, dass es ein riesiger Bruch mit bisherigen Konzepten darstellen und große Kompatibilitätsprobleme verursachen. Bei WinFS, welches ja nur ein Aufsatz für NTFS ist war wohl genau dieses Kompatibilitätsproblem der Grund für die Verschiebung.
Über Kurz oder Lang wird die Entwicklung aber wohl in diese Ecke gehen, aber ich vermute, dass es weniger dahin gehen wird, dass das zugrunde liegende Dateisystem komplett umgebaut wird und flache Hierarchien aufgibt, sondern es wird wohl eher wie bei WinFS in die Richtung eines DB-basierten Aufsatzes für das Dateisystem gehen.
ich bin kein versierter Computerfreak, aber ist es in Anbetracht der immer größer werdeneden Speichervolumina nicht möglich, bestimmte Dateien ohne Dateisystem physikalisch an eine fest vorgegebene Stelle abzulegen, ggfs. flash, um Sie von dort bei Bedarf zu nutzen, also festgelegte Speicherorte, ohne suchen zu müssen? Das würde mir jetzt bereits helfen, da durch Fragmentierung meiner Systeme (ständige Dateiverszeichnisveränderung durch Stapelverarbeitung) bis zu 27% meßbarer Leistungsverlust (WinXP-Selbstverwaltung)entsteht. Dateien müssen vor Verarbeitung gefunden werden und werden danach leider fragmentiert abgelegt.
Wenn die Abschaffung einer Verzeichnisstrucktur vollzogen würde, wie findet dann das Betriebssystem entsprechendes Programm, Datei usw? Verstehe ich nicht.
"aber ist es in Anbetracht der immer größer werdeneden Speichervolumina nicht möglich, bestimmte Dateien ohne Dateisystem physikalisch an eine fest vorgegebene Stelle abzulegen"
Klar ist das wichtig. Genau dafür wurden auch die Filesystem Hierarchy Standards entwickelt:
Ich sehe als größeres Problem das sich viele Distributionen an diese Standard leider nicht halten und dadurch es dem Anwender erschweren distributionsfremde Programme zu installieren.
bestimmte Dateien ohne Dateisystem physikalisch an eine fest vorgegebene Stelle abzulegen
Und wie willst Du diese Dateien ohne Dateisystem wiederfinden?
Fragmentierung
Wird sich auch in Zukunft nicht vermeiden lassen. Es sei denn Du weißt vorher ganz genau wie groß eine Datei maximal werden kann und reservierst dann diesen Platz vollständig im Dateisystem. Oder Du legst bei jedem kleinen Schreibzugriff sofort eine Kopie der kompletten Datei an. Das ist bei großen Dateien aber absolut nicht praktikabel.
Wenn die Abschaffung einer Verzeichnisstrucktur vollzogen würde, wie findet dann das Betriebssystem entsprechendes Programm, Datei usw? Verstehe ich nicht.
Dafür bräuchte es nur einen eindeutigen Schlüssel, wie z.B. eine GUID. Verzeichnisstrukturen werden aber auf absehbare Zeit nicht abgeschafft.
sondern es wird wohl eher wie bei WinFS in die Richtung eines DB-basierten Aufsatzes für das Dateisystem gehen.
Davon gehe ich auch aus. Allein schon aus Kompatiblitätsgründen ist ein vollkommen neues Speicherprinzip unpraktikabel. Die Daten werden auch sicher weiterhin in einer Verzeichnisstruktur liegen. Nur sind durch zusätzliche Metadaten neue Zugriffswege denkbar. z.B.: Welchen Dateien zum Thema X habe ich vor 2-3 Wochen mit meiner Textverarbeitung erstellt.
"Welchen Dateien zum Thema X habe ich vor 2-3 Wochen mit meiner Textverarbeitung erstellt."
Und wieso kann das entsprechenden Textverarbeitungssystem diese Information nicht abspeichern ?
Wenn du auf solche Feaures Wert legst, dann kannst eben kein Open Office nutzen. Ich weiß aber auch nicht ob Word von Microsoft so ein Feature nutzt.
Durch immer mehr Metadaten wird ein Dateisystem langsam, da diese Metadaten (in einem Journal) irgendwo gesichert werden müssen.
Durch immer mehr Metadaten wird ein Dateisystem langsam, da diese Metadaten (in einem Journal) irgendwo gesichert werden müssen.
Wann hast Du Dir auf einem Desktop-System das letzte mal Gedanken über die Geschwindigkeit des Dateisystems machen müssen? Größere Dateisysteme sind übrigens auch langsamer als kleine...
Und eine Lösung auf Anwendungsebene leistet nicht das selbe wie eine transparente Funktion im Dateisystem.
Linux hat eine sehr funktionelle Verzeichnisstruktur die sehr übersichtlich ist .
Diese Probleme gibt es nur unter Windows.
Das größere Problem wird der Anwender selbst sein, weil die meisten Anwender diese Verzeichnisstruktur überhaupt nicht kennen oder genauer kennen lernen wollen. Vor allem Einsteiger sollten sich genauer mit den Filesystem Hierarchy Standards vertraut machen.
Es wäre viel wichtiger das sich mehr Distributionen an
den Filesystem Hierarchy Standards halten würden.
Hallo Ihr Leute, ich kenn mich mit Linux nicht aus aber ich dachte immer das "Suchen" ist dafür da. Vorausgesetzt ich kann mich noch an den Namen erinnern oder wenigstens an einen Teil dessen. In die Suchmaske eingeben und dann "soll er doch selber suchen". Wenns auf dem Rechenknecht drauf war hat ers gefunden. Beim ablegen muß ich mir allerdings paar Gedanken machen. Oder soll das wegfallen und die Datei vagabundiert auf der Platte rum ohne Aufhänger?
neugier1
Vorausgesetzt ich kann mich noch an den Namen erinnern oder wenigstens an einen Teil dessen.
Das ist bei mehrere Jahre älteren Dateien aber oft schwierig sich an konkrete Dateinamen zu erinnern. Oder man würde zwischenzeitlich ganz andere Dateinamen vergeben. Ein weiteres kann sich dann ergeben wenn sehr viele Dateien einen ähnlichen Namen haben ;-)
Dann kann man nur noch weiter Einschränken nach Datum und ggf. nach Inhalt - wobei letzteres nur bei Klartextformaten eine Option ist...
Beim ablegen muß ich mir allerdings paar Gedanken machen.
Das wird man wohl auch in Zukunft machen müssen. Wenn man z.B. dann aber (zusätzlich zum Dateinamen/titel) Tags mit vergeben kann lassen sich später auch Dateien leicher wiederfinden die man nicht eindeutig in einer rein Hierarchischen Verzeichnisstruktur ablegen kann ;-)
Borlander bringt es auf den Punkt. Ich meine dazu, das eine Verzeichnisstrucktur doch physikalisch getrennt hergestellt werden könnte. Doc allein auf HDD3, jpg's allein auf HDD4, pdf's allein auf HDD5, MP3's allein auf HDD6 usw. Mit jeweils dazu fix verknüpften Programm. Also Module im Betriebssystem fest einbinden ohne das es lange suchen müßte.
Ich mache das zum Teil mit Kundendaten, die jeweils "Ihre" Dateien auf einer extra Platte gespeichert haben (z.T. bis 800 GB !!!) Die Platte wird nur dann ins System engebunden, wenn benötigt. Das entlastet das BS und die Verzeichnisstrucktur dramatisch.
Im Betriebssystem sind doch die Dateigrößen, außer Temp relativ festgelegt. Da könnte man doch schnelle Ram als Speicherort nutzen und direkt, ständig dem BS zuweisen, um eine die Arbeit von Zuornung und Dateinamen zu lösen.
Vielleicht denke ich da aber in die falssche Richtung. Komme nur deshalb darauf, da Betriebnssysteme, zB. Vista, mit sich selbst so beschäftigen, das kam noch leistungsfähige Anwendungen zum Zug kommen.
Das entlastet das BS und die Verzeichnisstrucktur dramatisch.
Aber nur wenn man fest dran glaubt. So lange keine Zugriffe erfolgen kümmert sich das OS nicht weiter drum ob da ein weiteres Dateisystem vorhanden ist oder nicht.
Da könnte man doch schnelle Ram als Speicherort nutzen und direkt, ständig dem BS zuweisen, um eine die Arbeit von Zuornung und Dateinamen zu lösen.
Nennt sich Dateisystemcache. Hat jedes aktuelle Betriebssystem (und das nicht erst seit gestern)...
Bei mir liegen in /home knapp 0,5Mio Dateien. Die meisten Dateien finde ich bei Bedarf spontan wieder. Bei vielen kommen aber auch mehrere Speicherorte in Frage.
Es ist illusorisch zu glauben, daß sich alle Dateien eindeutig in einer baumförmige Hierarchie einordnen lassen. Spätestens wenn man z.B. Photos sucht auf denen zwei bestimmte Personen abgebildet sind lässt sich das allein durch das Dateisystem nicht mehr sinnvoll lösen...
Eben. Spätestens wenn ich mehrere hunderttausen Bilder auf der Festplatte habe und der Bildinhalt nicht in einer Datenbakt erfasst ist, dann habe ich ein Problem, wenn das relevante Suchkriterium nicht über den Dateinamen oder den Pfad nicht zu fassen ist. Da hilft auch das schönste und schnellste Dateisystem nicht, es sei denn, es ist in der Lage, auf die Schnelle alle Pixel zu begutachten und festzustellen, ob sich z.B. Tante Emma dahinter verbirgt.
Und wie machst du das in der Firma, wo 100 Mitarbeiter auf einem Server-Share gemeinsame Dateien bearbeiten? Da kannst du unmöglich den Durchblick haben. Aber genau das ist ja dann das interessante an so einem System: schnell die benötigten Inhalte finden.
Für solche Fälle gibt es File- und Contentmanagment-Software.
Wenn man solche Informationen in die Metadaten eines Dateisystem packt, dann wird wahrscheinlich auch das Dateisystem langsamer.
Die Metadaten werden oder müssen irgendwo gesichert werden , um in einem Fehlerfall das Dateisystem wieder reparieren zu können.
Ich meine, wenn in einer großen Firma Daten gemeinsam genutzt werden , dann muß die entsprechende Software diese Informationen abspeichern und nicht das Dateisystem.
Schon klar, dass das früher mangels Rechenkapazitäten nicht wirklich effizient durchgeführt werden konnte. Aber mit heutigen Mitteln und wenn das ganze gut durchdacht ist - also ausgefeilte Such und Filter-Systeme/Algorithmen dann hat das echt Zukunft.
Und wenn man wenigstens die Speicherung als Dateien behält, also nur die Ordner weglässt, dann sehe ich auch keinen Grund für eine Inkompatiblität mit anderen Dateisystemen.
Bitte ganz einfach denken. warum soll ein Baumstrucktur nicht realisierbar sein?
Eigentlich gibt es doch nur entweder/oder, so wie bei Licht an, Licht aus. Eine Leitung (2 Adern) zu der vogegebenen Stelle, und nur dort fest ablegen was gebraucht wird. Nicht flexibel, sondern ähnlich wie beim Bios, möglichst nicht löschbar.
Stelle mir das so vor, das ein BS und Programme nicht mehr auf CD-R zum installieren geliefert werden, sondern z.B. auf unlöschbare, event. kopiergesicherte, sicherte Ram. Kaufen, Karte in einen der 100(?) kleinen Slots stecken und BS, Programm, Datei usw. nutzen. Vielleicht einwenig verückt, aber kaputt (außer mechanisch) könnte da so gut wie nichts gehen.
Die Ram's würden natürlich nur in der erforderlichen Größe (Datenvolumen) billigst hergestellt . So könnte man durch Module klare Ornung schaffen. Über eine Schnittstelle könnte man trotzdem noch "alte" mechanische HDD's als Massenspeicher nutzen, bis die Ram' so billig geworden sind und alle Mechanik ersetzen.
Die Musikindustrie denkt gerade darüber nach, statt auf CD's, auch Musik auf den kleinen Chips zu liefern, das wäre eine Vorstufe. Warum könnten nicht auch BS und Programme auf Ram geliefert werde? Ein Modul-BS bräuchte garnicht wissen, wo ein Programm liegt, es ist ja durch den Slot bereits festgelegt.
Das Ganze ist umso interessanter, da man sich "seinen" Rechner wie das Butterbrot selbst schmieren könnte, ob mit Butter oder Magarine, Wurst oder Käse, einfach wie es schmeckt.
warum soll ein Baumstrucktur nicht realisierbar sein?
Häh?
Eine Leitung (2 Adern) zu der vogegebenen Stelle, und nur dort fest ablegen was gebraucht wird.
Schonmal darüber nachgedacht wie dann die richtige Leitung ausgewählt werden soll? Die müssen schon irgendwie adressiert werden
sondern z.B. auf unlöschbare, event. kopiergesicherte, sicherte Ram. Kaufen, Karte in einen der 100(?) kleinen Slots stecken und BS, Programm, Datei usw. nutzen.
Sehr teuer das ganze und sehr unflexibel :-(
Inzwischen ist man doch sogar bei den Spielkonsolen von dieser Lösung abgegangen...
bis die Ram' so billig geworden sind und alle Mechanik ersetzen.
Bis dahin wird der Speicherbedarf im selben Ausmaß gewachsen sein.
Ein Modul-BS bräuchte garnicht wissen, wo ein Programm liegt, es ist ja durch den Slot bereits festgelegt.
Dann muß es wissen in welchem Slot die Software steckt. Ist nur ein anderes Adressierunsverfahren.
Stell Dir vor, das was Du beschreibst gab es fast genau so in der Form schon einmal. Alles ganz einfach, alles ganz schlicht. Jedes Programm auf seinem eigenen abgesicherten Datenträger, mehr oder weniger unlöschbar. Man musste nur jeweils den passenden Datenträger einlegen. Das Betriebssystem musste (und konnte) fast nichts tun, es musste nur die rudimentäre Basis zur Kommunikation bereit stellen.
Tja, dann passierte das unvermeidliche: Menschen wollten den Computer effizient und flexibel nutzen, Festplatten wurden erschwinglich, man konnte mehr als ein Programm gleichzeitig laufen lassen, Daten konnten zwischen Programmen ausgetauscht werden und keiner hatte mehr Lust ständig Disketten zu wechseln.
Spaß beiseite: Was sollte das von Dir beschriebene System bringen? Du brauchst immer noch ein Betriebssystem, dass sich um sämtliche grundlegenden Operationen kümmert wie Sheduling, Speicherverwaltung, Resourcenverwaltung, Benutzerverwaltung, Rechteverwaltung, Dateisystem, Protokolle. Du tauscht einfach nur die flexible Nutzung von Speicherresourcen gegen eine unflexible, teure und fehleranfällige Hardwarelösung (schon mal drüber nachgedacht, wie ein Programmupdate funktionieren sollte?). Und wenn das OS nicht wissen muss, wo ein Programm liegt, wie weiß das OS dann wie es ein Programm finden soll um es zu starten?
Das Problem heute ist auch nicht die Geschwindigkeit beim Zugriff auf ausführbare Programme. Ob ein Programm nun in 1 Sekunde, oder in 5 gestartet ist tut niemandem wirklich weh. Das Problem sind die Unmengen an produzierten Nutzerdaten und das Auffinden selbiger und genau dabei hilft das von Dir beschriebene System nicht im Geringsten.
An flachen Dateisystemen ist wirklich nichts falsch, was die verwaltung von physikalischem Speicher angeht, es gibt wirklich sehr gute Dateisysteme, die transparent jegliche Art verschiedener Speichermedien dynamisch verwaltet, ohne dass der Nutzer merkt, wo etwas liegt (das geht sogar bis hin zu Bandbibliotheken). Woran es fehlt ist eine Zwischenschicht zwischen Dateisystem und Anwender / Anwendung, die dies intuitiv verwaltbar macht. So sollte ein physikalisches Dateisystem dem Nutzer gleichzeitig unzählige virtuelle Dateisysteme bereit stellen. Als Beispiel was ich meine:
Ich suche Dateien, die die letzten 3 Tage bearbeitet wurden, also gehe ich in den Order dieser Dateien, der nur ein virtueller Ordner als Ergebnis einer Datenbankabfrage existiert. Suche ich JPEGs, dann gehe ich in den Ornder JPEGs, der auch nur virtuell exisitert und dessen reale Daten an beliebiger Stelle liegen.
Nun, wie bereits von mir erwähnt bin ich kein Computerspezi und lerne hier, dank eurer Mithilfe, stetig dazu. Aber dennoch gut zu wissen, das ich ernst genommen werde, Danke.
Andersrum gedacht, alle BS haben das Problem mit der Adressierung und Dateistrucktur, mehr oder weniger. 100erte von Progrämmchen (BS)sind dafür zuständig, damit das System mit einer Hardware läuft, kontrolliert und korrigiert, alles möglichst gleichzeitig und schnell.
Beispiel, wenn ich Bildbearbeitung mache, so brauche ich weder WLan, Netzwerk, Mediaplayer, Schreibprogramme, noch nicht mal eine Firewall, Antivirenscanner, TV-Card und, und, und.
Hab mal den einfachen Test für mich gemacht, möglichst viele Programme (einschließlich dll's) und auch Hardware (3D-Spielegrafikkarte), auch Sicherheitssoftware usw. vom Rechner zu verbannen, die ich zB. für eine Bildbearbeitung niemals gebrauchen kann. Das ist ein Erlebnis der 2.Art. Also kein Multitasking !!! Unvorstellbare Geschwindigkeit, trotz "schwacher" Rechner-Leistungsdaten, ... und das bei vermutlich hoher Stabilität.
Ich möchte doch nur alles vom Rechner fernhalten, auch ungenutzte Archivdateien, um nur das zu tun, was gerade gefordert ist, aber das dann ungestört und richtig. Deshalb komme ich auf die Modulbauweise. Von mir aus könnten die "Module" ja bereits im Rechner integriet sein, aber bitte nur arbeiten, wenn nötig. Das ist ja bei Windows wohl nie der Fall. Selbst, wenn ich meinen Rechner im Betrieb garnicht anfasse, wird irgendwas von irgendwie verwaltet, geschrieben und gelesen.
Denke sogar durchaus soweit, ob ein abgespecktes, aber nur dafür geschriebenes BS gleich der erforderlichen Sofware mitgeliefert wird, passend. Durch einfache On/Off Editierung könnte man schnell und effizient zwischen Programmen wechseln oder auch auf Wunsch gleichzeitig nutzen. Eben nicht Unmengen von Nutzerdaten produzieren, die hernach verwaltet werden müssen. Wenn Nutzerdaten erforderlich sind, dann nur in dem Modul, wo sie auch hingehören, nicht irgendwo auf einer riesigen 1TB-Platte völlig durcheinander mit wieviel Sektoren usw. und aufgeblähter Selbst-Verwaltung? Das wiederfinden von Dateien wäre viel einfacher.
Umgangssprachlich: Klopapier sucht man auch nicht in der Küchen-Besteckschublade. Windows tut das aber ständig. Habe selbst zB. ein für mich einfaches System mit haufenweise externen Platten, die aber nur dann dran kommen, wenn Sie gebraucht werden, niemals ständig. Windows wäre überforderet! Wieviel Dateien kann (theoretisch) Windows verwalten?
Also kein Multitasking !!!
Ich will Multitasking nutzen und ich bin mir sicher, daß die meisten User hier das sehr ähnlich sehen ;-)
Ich möchte doch nur alles vom Rechner fernhalten, auch ungenutzte Archivdateien
Die belegen abgesehen von Plattenplatz keine Systemressourcen.
Selbst, wenn ich meinen Rechner im Betrieb garnicht anfasse, wird irgendwas von irgendwie verwaltet, geschrieben und gelesen.
Genau dieses Verwalten ist die Aufgabe des Betriebssystems. Das was das im Hintergrund abläuft stört beim Arbeiten nicht im geringsten. Schau einfach mal in den Taskmanager wenn der Computer sich im Leerlauf befindet. Wenn Du da dauerhaft mehr als 5% CPU-Last hast ist das schon sehr ungewöhlich...
Wenn Nutzerdaten erforderlich sind, dann nur in dem Modul, wo sie auch hingehören,
Es ist durchaus nicht selten, daß man mit mehren Anwendungen auf dem selben Datenbestand arbeitet...
und aufgeblähter Selbst-Verwaltung?
Wo gibt es denn diese angeblich "aufgeblähte" Selbst-Verwaltung im Dateisystem?
Wieviel Dateien kann (theoretisch) Windows verwalten?
Ein NTFS-Dateisystem kann 4Mrd Dateien verwalten und Windows kann auf deutlich mehr als ein Dateisystem gleichzeitig zugreifen. Solange kein Zugriff erfolgt werden aber auch keine nennenswerten Ressourcen belegt...
Aber dennoch gut zu wissen, das ich ernst genommen werde, Danke.
Klar, warum auch nicht?
Andersrum gedacht, alle BS haben das Problem mit der Adressierung und Dateistrucktur, mehr oder weniger.
Eigentlich eher weniger. Es gibt eigentlich so gut wie kein Problem auf der Schicht zwischen dem physikalischen Datenträger und dem Dateisystem, oder dem Dateisystem und dem Betriebssystem, hier funktioniert seit Jahren alles recht schnell und gut. Das Problem existiert eher (wie oben erwähnt) zwischen Betriebssystem und Anwender / Anwendung. Die Verwaltung der Daten klappt, die Organisation ist das Problem, welches in Zukunft noch größer wird.
Beispiel, wenn ich Bildbearbeitung mache, so brauche ich weder WLan, Netzwerk, Mediaplayer, Schreibprogramme, noch nicht mal eine Firewall, Antivirenscanner, TV-Card und, und, und.
Ja, aber wenn Du während des Schreibens fest stellst, dass Du im Internet noch was recherchieren musst für den Text, dann brauchst Du diese ganz plötzlich (und möglichst schnell) eventuell schon. Willst Du dafür dann daneben einen zweiten Rechner stehen haben, oder neu booten mit einem anderen Profil? Sehr unergonomisch.
Hab mal den einfachen Test für mich gemacht, möglichst viele Programme (einschließlich dll's) und auch Hardware (3D-Spielegrafikkarte), auch Sicherheitssoftware usw. vom Rechner zu verbannen, die ich zB. für eine Bildbearbeitung niemals gebrauchen kann. Das ist ein Erlebnis der 2.Art.
Da widerspreche ich Dir nicht. Man kann letztendlich jeden Computer mit einer bestimmten Anzahl Aufgaben in die Knie zwingen und sei es, indem man den verfügbaren Speicher aufbraucht. Was Du da aber ansprichst hat seine Ursachen in vielen Faktoren, nicht schlicht im Vorhandensein vieler verschiedener Programme auf einem System. Ein nicht gestartetes Programm braucht keine Resourcen, außer seinem Speicherplatz (und dieser ist heute spottbillig). Aber selbstverständlich ist es so, dass je mehr auf dem System auch wirklich läuft, das System gefühlt langsamer wird. Das hat wahrscheinlich so ziemlich jeder schon erfahren, wenn er etwas ältere Hardware mit Windows hat und das System nach Monaten immer zäher wird, sofern man ständig irgendwelche Progrämmchen installiert, die im Hintergrund laufen. Dahingegen wird ein System gefühlt wesentlich schneller, wenn man die speicherresidenten Programme ausmistet und nicht benötigte Dienste deaktiviert.
Also kein Multitasking
Das halte ich hingegen für ein Gerücht. Multitasking ist nicht erst dann da, wenn Du es bewusst nutzt, es ist im Betriebssystem implementiert und der Sheduler arbeitet auch, wenn man es nicht merkt. So lange Du im Taskmanager unter den Prozessen mehr als einen Eintrag siehst (bei Windows), oder die Ausgabe von ps -a mehr als eine Zeile hat macht dein System Multitasking, nicht erst wenn Du als Nutzer mehr als ein Programm startest.
Das sorgt dafür, dass dein System im Hintergrund Suchindices aktualisieren kann, nach Viren scannen, das Dateisystem warten oder einen Download beenden kann, während Du in deinem Grafikprogramm arbeitest. Das kann natürlich dazu führen, dass das System sich langsamer anfühlt. Wenn es sich jedoch dabei um wichtige Aufgaben handelt, die ohnehin ausgeführt werden müssen, so müsstest Du ohne Multitasking warten, bis diese beendet sind und das wäre noch wesentlich langsamer.
Zudem sind aktuelle Prozessoren ohnehin so ausgelegt, dass sie mehr als einen Task parallel verarbeiten können und müssen um effektiv zu arbeiten.
Denke sogar durchaus soweit, ob ein abgespecktes, aber nur dafür geschriebenes BS gleich der erforderlichen Sofware mitgeliefert wird, passend.
Nunja, das gab es lange Zeit, teilweise sogar noch weiter spezialisiert, dass sogar die Hardware nur einer Aufgabe diente. Diese Geräte nannten sich gemeinhin Appliance und verschwinden nach und nach vom Markt, weil sie durch normale Multi-Purpose-Geräte ersetzt werden, die das gleiche in Software fast genau so effizient, wesentlich günstiger und weitaus flexibler erledigen. Ein Single-Purpose-System (also ein System für nur eine Aufgabe) wäre selbstverständlich effektiver für genau diese Aufgabe, aber das passt nicht mehr zu heutigen Anwendungsszenarien für Computer. Egal wo Du hinschaust hast Du immer weniger auf eine einzelne Aufgabe beschränkte Systeme.
Das von Dir vorgeschlagene System krankt noch an einem anderen Punkt, nämlich dem Datenaustausch. Ich nehme einmal an, Du arbeitest viel mit Grafik. Gehen wir nun mal nur theoretisch davon aus, dass Du etwas layoutest, dann brauchst Du ein Layoutprogramm (Vektorprogramm) und wahrscheinlich ein Programm um Grafiken zu bearbeiten. Wie willst Du das nun effizient in einem System realisieren, dass jeweils auf ein Programm beschränkt wäre? Du hättest keine nutzbare Zwischenablage, kein Drag&Drop, müsstest jedes Mal, wenn Du eine Grafik im Layout nochmal ändern und anpassen wolltest die Grafik abspeichern, das Layoutprogramm verlassen, eventuell dein System umkonfigurieren, das Grafikprogramm laden, damit arbeiten und das selbe Spiel nochmal von vorne.
Wenn Nutzerdaten erforderlich sind, dann nur in dem Modul, wo sie auch hingehören, nicht irgendwo auf einer riesigen 1TB-Platte völlig durcheinander mit wieviel Sektoren usw. und aufgeblähter Selbst-Verwaltung?
Was Du ansprichst ist weniger ein Problem der Computertechnik, als ein menschliches. Ein Bekannter von mir (Informatiker) sagte sinngemäß mal zu mir: "90% der Software-Probleme durch überhand nehmende Komplexität liesen sich lösen, wenn die System-Architekten nicht versuchen würden menschliches Fehlverhalten mitttels Software lösen zu wollen, was sowieso nie klappen wird. Selbst wenn man alle möglichen Anwendungsfehler in Software abfangen könnte würden irgendein Anwedner einfach einen neuen erfinden."
Um das ganze mal in ein greifbareres Beispiel zu packen hier was aus meiner Praxis: In einer Firma für welche ich arbeite ist ein Grafiker. Was Grafik angeht ist er wirklich ganz gut, was den Rest angeht, so ist er ein Chaot. Jedes Mal wenn er einen Auftrag bearbeitet sind danach auf dem Server ein paar hundert Megabyte mehr an Daten, und diese bestehen i.d.R. aus einer Endversion mit ein paar Megabyte und ein paar Dutzend Zwischenversionen, Sicherheitskopien, Hilfsdateien etc. Das ist aber noch nicht einmal das gröbste Problem. Schlimmer wird es bei seinen Namenskonventionen, von denen er behauptet sie würden existieren. Dummerweise findet er nach einer Woche aber selbst nicht mehr, welches nun die Endversion ist, welches eine Version ist, die gelöscht werden kann oder überhaupt: Er kann seine eigenen Dateinamen nicht mehr entziffern. Daten zu organisieren ist primär die Aufgabe des Anwenders, hier können Software oder Systeme nur unter die Arme greifen. Man kann auch eine 1TB-Platte mit Ordnern und einleuchtenden Namenskonventionen sinnvoll organisieren. Dagege kann man aber auch eine Dokumentenverwaltung, die mit Metadaten arbeiten unbenutzbar machen, indem man sie mit belanglosen, nichtssagenden Metadaten überfüttert.
Noch ein Gegenbeispiel zu dem chaotischen Grafiker von oben: Ein anderer Kunde von mir ist ein Ingenieurbüro (ja, wie klischeehaft). Deren Netzwerkspeicher verfügt mittlerweile über knapp 4TB rein für Daten von knapp 20 Mitarbeitern. Dessen Struktur habe ich damals mit den (sehr engagierten) Geschäftsführern zusammen aufgebaut und nach der Installation gab es für alle Mitarbeiter eine Einweisung. Es gibt eine vorgegebene Ordnerhierarchie, die nicht durchbrochen werden kann. Nur die GF kann einen neuen Ordner für ein neues Projekt anlegen, Nutzer können nur Ordner innerhalb eines Projektes anlegen und dort nur innerhalb der Unterordner für die Dokumententypen. Dateien können von Anwendern nur innerhalb dieser Ordner abgelegt werden. Der Speicher ist mittlerweile ca zu 70% voll, aber niemand hat ein Problem z.B. einen Detailplan der Stütze im Erdgeschoß von Projekt XYZ zu finden, selbst wenn er nie an dem Projekt gearbeitet hat. Hier hilft zwar die Software, aber ohne Selbstdisziplin wäre sie nutzlos.
Umgangssprachlich: Klopapier sucht man auch nicht in der Küchen-Besteckschublade.
Es nutzt Dir aber auch nichts, wenn das Klopapier am richtigen Ort ist, jedoch jemand auf die Packung "Tempotaschentücher" geschrieben hat, oder es ziwschen Bergen von Küchenkrepp vergaben ist.
Nebenbei: Warum sollte Windows das ständig tun? Das was Windows selbst anlegt folgt i.d.R. auch einem strengen Schema, das was den Wilwuchs ausmacht geht immer zu Lasten entweder des Nutzers, oder des Programmierers der Anwendungen.
xafford,
mann, Du bist aber ein netter Mensch, sich so intensiv mit der Materie ausanandersetzen hilft mir wirklich weiter.meine Modul-idee verwerfe ich nun gedanklich, obwohl ich enwenig so arbeite.
Deine Beschreibung passt auf typische, chaotische Grafiker voll zu. Auch ich erlebe das Strukturchaos bei vielen Kunden. Sogar auf Online-Servern und vorallem in der Anlage von Archiven. Bei mir sortiert sich jeder Ordner (= Auftrag) von selbst, egal wo er physikalisch gespeichert wird. Ist also jederzeit easy wiederzufinden. Selbst mit Doc's (odt's) mache ich das so, keine zwangsweise vorgegebene Strucktur durch ein Programm.
zB.Ordner: Nickles0801009Linux
Nickles = Kundenname
081009 = Datum
Linux = grobes Thema
in dem Ordner sind dann durchnummerierte Dateien ab 0001 bis 9999 in korrekter Reihenfolge, ggfs hinzu mit verkürztem Thema z.B.: 0001Unbuntu oder Varianten 0001A 0001B ...
So, noch nie habe ich was auf dem Rechner nicht wiedergefunden.
Sortiert nach Kunde (auch eigene Ordner)... niemals in eigene Dateien !
sortiert nach Arbeitsbeginn (Auftragsanlage)
sortiert nach Thema
Das ganze lege ich als Kopie zunächst einfach auf eine externe Festplatte, Ist also einmal auf dem Rechner und als Kopie auf der externen HDD. Wenn ich meinen Rechner einmal pro woche säubere und defragmentiere usw, dann kopiere ich den Ordner nochmal auf eine 2. externe Festplatte. Hernach lösche ich die Datei auf meinem Rechner und gebe so rund bis zu 120GB wieder frei, was sonst meinen Rechner ohne Defragmentierung im Tempo ausbremst. Das ist für mich eine sehr sichere Art Dateien zu archivieren. hinzu kommt noch eine CD/DVD-Kopie für den Kunden und für mein Not-Kellerarchiv.
Klopapier muß man aber auch mit Klopapier benennen und nicht Küchentücher hinschreiben und in Ordner Besteck ablegen ! Wenn allein >Das
Schlimm wird es erst, wenn allzu geschäftige Kunden bzw. Dateiverarbeiter meine Dateien besserwissend bei sich umbenennen und dann nicht wiederfinden. Ich möchte, das Dateien in abgewandelter Version nur den jeweiligen Anhang und den Ursprungsmamen behalten und _A oder _B o.ä. ranhängt. Dann kann man Gewißheit haben, was die Mutterdatei und die geänderten Versionen sind. Das ist doch nicht schwierig.
Ich halte nicht viel von Datenbanken mit Metadateien im eigenen Haus. Hatte dadurch nur Probleme (z.B. Bildatenbank), nur aufgrund der falschen Verschlagwortung. Bestimmte, wichtige Bilder/Grafiken wurden nie wiedergefunden.
Für große Firmen und zugewiesenen Nutzungsrechten dürfte das kein Problem sein, da eine Strucktur kallhart vom Administrator als Arbeitsanweisung vorgegeben wird.
Übrigens, was macht denn Windows auf meinem Rechner, wenn ich nichts tue? Die HDD ist ständig in Betrieb und schreibt und liest einwenig ständig. Hintergrunddienste abgeschaltet.