Dateisysteme für Datenträger arbeiten generell alle nach dem gleichen Prinzip. Man kann beliebig viele Verzeichnisse und Unterverzeichnisse anlegen und darin Daten speichern. Windows-Anwender müssen sich dabei auch noch mit Laufwerkbuchstaben herumplagen, die bei Linux längst abgeschafft sind.
Das Problem Nummer 1 ist allerdings überall das gleiche, um mit steigenden Speicherkapazitäten wird es immer größer: Dinge wieder finden. Jeder kennt es: man weiß, dass man irgendwo mal einen Text, ein Bild oder eine Software gespeichert hat, aber bloß wo? Und egal, wie sehr man versucht, seine Daten clever zu organisieren - irgendwann ist der Durchblick weg. Auch ist das Hangeln in Verzeichnissen zermürbend.
Typischer Fall: eine Datei wird mit einem Programm irgendwo gespeichert. Dann will man sie mit einem anderen Programm öffnen. Da Programme typischerweise diesbzüglich nicht miteinander kommunizieren, muss man sich im zweiten Programm dann wieder zum Verzeichnis hangeln, in dem die Datei zuvor gespeichert wurde.
Laut Ubuntu Gründer Mark Shuttleworth finden Menschen Informationen inzwischen schneller über Google, als auf ihren eigenen Datenträgern.
Shuttleworth fordert jetzt ein neues Dateisystem-Konzept, das sich um exakt diese Probleme kümmert. Anwender sollen nicht länger gezwungen sein, in "Verzeichnis-Struktur"-Modellen zu denken. Diese Revolution würde beispielsweise bedeuten, Verzeichnisstrukturen schlichtweg komplett abzuschaffen - für viele kaum vorstellbar.
Interessante Ansätze wurden jetzt beim "GNOME user experience hackfest" in Boston diskutiert, die in dieser PDF-Präsentation vereinfacht zusammengefasst sind: How To Improve on File Management.
Ein interessanter aktueller Ansatz für ein neues Dateisystem wird beispielsweise auf www.wizbit.org beschrieben.
Die Schaffung eines neuen intelligenten Dateisystems, würde für "kostenlose Betriebsysteme" wie Linux auf jeden Fall einen enormen Vorsprung gegenüber ihren kommerziellen Konkurrenten bringen. Mark Shuttleworths kompletter Beitrag zur Sache findet sich hier: www.markshuttleworth.com
Aber dennoch gut zu wissen, das ich ernst genommen werde, Danke.
Klar, warum auch nicht?
Andersrum gedacht, alle BS haben das Problem mit der Adressierung und Dateistrucktur, mehr oder weniger.
Eigentlich eher weniger. Es gibt eigentlich so gut wie kein Problem auf der Schicht zwischen dem physikalischen Datenträger und dem Dateisystem, oder dem Dateisystem und dem Betriebssystem, hier funktioniert seit Jahren alles recht schnell und gut. Das Problem existiert eher (wie oben erwähnt) zwischen Betriebssystem und Anwender / Anwendung. Die Verwaltung der Daten klappt, die Organisation ist das Problem, welches in Zukunft noch größer wird.
Beispiel, wenn ich Bildbearbeitung mache, so brauche ich weder WLan, Netzwerk, Mediaplayer, Schreibprogramme, noch nicht mal eine Firewall, Antivirenscanner, TV-Card und, und, und.
Ja, aber wenn Du während des Schreibens fest stellst, dass Du im Internet noch was recherchieren musst für den Text, dann brauchst Du diese ganz plötzlich (und möglichst schnell) eventuell schon. Willst Du dafür dann daneben einen zweiten Rechner stehen haben, oder neu booten mit einem anderen Profil? Sehr unergonomisch.
Hab mal den einfachen Test für mich gemacht, möglichst viele Programme (einschließlich dll's) und auch Hardware (3D-Spielegrafikkarte), auch Sicherheitssoftware usw. vom Rechner zu verbannen, die ich zB. für eine Bildbearbeitung niemals gebrauchen kann. Das ist ein Erlebnis der 2.Art.
Da widerspreche ich Dir nicht. Man kann letztendlich jeden Computer mit einer bestimmten Anzahl Aufgaben in die Knie zwingen und sei es, indem man den verfügbaren Speicher aufbraucht. Was Du da aber ansprichst hat seine Ursachen in vielen Faktoren, nicht schlicht im Vorhandensein vieler verschiedener Programme auf einem System. Ein nicht gestartetes Programm braucht keine Resourcen, außer seinem Speicherplatz (und dieser ist heute spottbillig). Aber selbstverständlich ist es so, dass je mehr auf dem System auch wirklich läuft, das System gefühlt langsamer wird. Das hat wahrscheinlich so ziemlich jeder schon erfahren, wenn er etwas ältere Hardware mit Windows hat und das System nach Monaten immer zäher wird, sofern man ständig irgendwelche Progrämmchen installiert, die im Hintergrund laufen. Dahingegen wird ein System gefühlt wesentlich schneller, wenn man die speicherresidenten Programme ausmistet und nicht benötigte Dienste deaktiviert.
Also kein Multitasking
Das halte ich hingegen für ein Gerücht. Multitasking ist nicht erst dann da, wenn Du es bewusst nutzt, es ist im Betriebssystem implementiert und der Sheduler arbeitet auch, wenn man es nicht merkt. So lange Du im Taskmanager unter den Prozessen mehr als einen Eintrag siehst (bei Windows), oder die Ausgabe von ps -a mehr als eine Zeile hat macht dein System Multitasking, nicht erst wenn Du als Nutzer mehr als ein Programm startest.
Das sorgt dafür, dass dein System im Hintergrund Suchindices aktualisieren kann, nach Viren scannen, das Dateisystem warten oder einen Download beenden kann, während Du in deinem Grafikprogramm arbeitest. Das kann natürlich dazu führen, dass das System sich langsamer anfühlt. Wenn es sich jedoch dabei um wichtige Aufgaben handelt, die ohnehin ausgeführt werden müssen, so müsstest Du ohne Multitasking warten, bis diese beendet sind und das wäre noch wesentlich langsamer.
Zudem sind aktuelle Prozessoren ohnehin so ausgelegt, dass sie mehr als einen Task parallel verarbeiten können und müssen um effektiv zu arbeiten.
Denke sogar durchaus soweit, ob ein abgespecktes, aber nur dafür geschriebenes BS gleich der erforderlichen Sofware mitgeliefert wird, passend.
Nunja, das gab es lange Zeit, teilweise sogar noch weiter spezialisiert, dass sogar die Hardware nur einer Aufgabe diente. Diese Geräte nannten sich gemeinhin Appliance und verschwinden nach und nach vom Markt, weil sie durch normale Multi-Purpose-Geräte ersetzt werden, die das gleiche in Software fast genau so effizient, wesentlich günstiger und weitaus flexibler erledigen. Ein Single-Purpose-System (also ein System für nur eine Aufgabe) wäre selbstverständlich effektiver für genau diese Aufgabe, aber das passt nicht mehr zu heutigen Anwendungsszenarien für Computer. Egal wo Du hinschaust hast Du immer weniger auf eine einzelne Aufgabe beschränkte Systeme.
Das von Dir vorgeschlagene System krankt noch an einem anderen Punkt, nämlich dem Datenaustausch. Ich nehme einmal an, Du arbeitest viel mit Grafik. Gehen wir nun mal nur theoretisch davon aus, dass Du etwas layoutest, dann brauchst Du ein Layoutprogramm (Vektorprogramm) und wahrscheinlich ein Programm um Grafiken zu bearbeiten. Wie willst Du das nun effizient in einem System realisieren, dass jeweils auf ein Programm beschränkt wäre? Du hättest keine nutzbare Zwischenablage, kein Drag&Drop, müsstest jedes Mal, wenn Du eine Grafik im Layout nochmal ändern und anpassen wolltest die Grafik abspeichern, das Layoutprogramm verlassen, eventuell dein System umkonfigurieren, das Grafikprogramm laden, damit arbeiten und das selbe Spiel nochmal von vorne.
Wenn Nutzerdaten erforderlich sind, dann nur in dem Modul, wo sie auch hingehören, nicht irgendwo auf einer riesigen 1TB-Platte völlig durcheinander mit wieviel Sektoren usw. und aufgeblähter Selbst-Verwaltung?
Was Du ansprichst ist weniger ein Problem der Computertechnik, als ein menschliches. Ein Bekannter von mir (Informatiker) sagte sinngemäß mal zu mir: "90% der Software-Probleme durch überhand nehmende Komplexität liesen sich lösen, wenn die System-Architekten nicht versuchen würden menschliches Fehlverhalten mitttels Software lösen zu wollen, was sowieso nie klappen wird. Selbst wenn man alle möglichen Anwendungsfehler in Software abfangen könnte würden irgendein Anwedner einfach einen neuen erfinden."
Um das ganze mal in ein greifbareres Beispiel zu packen hier was aus meiner Praxis: In einer Firma für welche ich arbeite ist ein Grafiker. Was Grafik angeht ist er wirklich ganz gut, was den Rest angeht, so ist er ein Chaot. Jedes Mal wenn er einen Auftrag bearbeitet sind danach auf dem Server ein paar hundert Megabyte mehr an Daten, und diese bestehen i.d.R. aus einer Endversion mit ein paar Megabyte und ein paar Dutzend Zwischenversionen, Sicherheitskopien, Hilfsdateien etc. Das ist aber noch nicht einmal das gröbste Problem. Schlimmer wird es bei seinen Namenskonventionen, von denen er behauptet sie würden existieren. Dummerweise findet er nach einer Woche aber selbst nicht mehr, welches nun die Endversion ist, welches eine Version ist, die gelöscht werden kann oder überhaupt: Er kann seine eigenen Dateinamen nicht mehr entziffern. Daten zu organisieren ist primär die Aufgabe des Anwenders, hier können Software oder Systeme nur unter die Arme greifen. Man kann auch eine 1TB-Platte mit Ordnern und einleuchtenden Namenskonventionen sinnvoll organisieren. Dagege kann man aber auch eine Dokumentenverwaltung, die mit Metadaten arbeiten unbenutzbar machen, indem man sie mit belanglosen, nichtssagenden Metadaten überfüttert.
Noch ein Gegenbeispiel zu dem chaotischen Grafiker von oben: Ein anderer Kunde von mir ist ein Ingenieurbüro (ja, wie klischeehaft). Deren Netzwerkspeicher verfügt mittlerweile über knapp 4TB rein für Daten von knapp 20 Mitarbeitern. Dessen Struktur habe ich damals mit den (sehr engagierten) Geschäftsführern zusammen aufgebaut und nach der Installation gab es für alle Mitarbeiter eine Einweisung. Es gibt eine vorgegebene Ordnerhierarchie, die nicht durchbrochen werden kann. Nur die GF kann einen neuen Ordner für ein neues Projekt anlegen, Nutzer können nur Ordner innerhalb eines Projektes anlegen und dort nur innerhalb der Unterordner für die Dokumententypen. Dateien können von Anwendern nur innerhalb dieser Ordner abgelegt werden. Der Speicher ist mittlerweile ca zu 70% voll, aber niemand hat ein Problem z.B. einen Detailplan der Stütze im Erdgeschoß von Projekt XYZ zu finden, selbst wenn er nie an dem Projekt gearbeitet hat. Hier hilft zwar die Software, aber ohne Selbstdisziplin wäre sie nutzlos.
Umgangssprachlich: Klopapier sucht man auch nicht in der Küchen-Besteckschublade.
Es nutzt Dir aber auch nichts, wenn das Klopapier am richtigen Ort ist, jedoch jemand auf die Packung "Tempotaschentücher" geschrieben hat, oder es ziwschen Bergen von Küchenkrepp vergaben ist.
Nebenbei: Warum sollte Windows das ständig tun? Das was Windows selbst anlegt folgt i.d.R. auch einem strengen Schema, das was den Wilwuchs ausmacht geht immer zu Lasten entweder des Nutzers, oder des Programmierers der Anwendungen.