Die Prozessorlast haben die aber mit Sicherheit mit nur einem aktiven E/A-Prozeß gemessen. Sowie man mit Multitasking ernst macht und mehrere E/A-Prozesse pro Platte (Stripe Set) aktiv sind wirds erheblich mehr, da die Platte nur einen ausführt und alle anderen wie zu Zeiten des PIO-Mode von der CPU verwaltet werden müssen. Allerdings wird die Prozessorlast bei Hardware-Raid dann genauso hoch, da die billigen RAID-Kontroller keine E/A-Prozesse verwalten können und dies ebenfalls der CPU überlassen. IDE-RAID-Kontroller die E/A-Prozesse selbständig verwalten können und der CPU damit Arbeit abnehmen gibts allerdings auch, z.B. vom Adaptec, die kosten dann allerdings auch ab 600,00DM aufwärts.
In einem Test von Software-RAID unter Win NT und Linux wurde auf die erhebliche Prozessorlast im realen Betrieb hingewiesen und empfohlen mit IDE kein Software-RAID zu fahren. Der Test war glaube ich in der PC Intern, ich weiß aber nicht mehr welche Ausgabe das war. Ich heb die Zeitungen nicht auf.
Bei Software-RAID mit SCSI-Platten bleibt die Prozessorlast so niedrig, da mehrere E/A-Prozesse in dem Fall von den Platten verwaltet werden. Alle zur Zeit angebotenen SCSI-Platten verwalten bis zu 64 E/A-Prozesse selbständig, außer die neuen Modelle von Fujitsu (MAJ-Serie), die verwalten 128 gleichzeitige E/A-Prozesse. Als Otto Normalverbraucher bringt man es allerdings kaum auf so viele. Aber man sollte nicht vergessen das unter Windows 98 und aufwärts meistens mehrere E/A-Prozesse aktiv sind, schon der Start von Programmen kann in mehreren Prozessen erfolgen, z.B. alle Office-Programme ab der 97-er Ausgabe.
Ich bin bei Messergebnissen von Tests immer sehr vorsichtig, oft genug wurde schon grober Unfug zusammengemessen.
Als kleines Beispiel mal der gewichtete Mittelwert den die c't immer mit angibt. Die messen diesen in einem 6 Megabyte "großen" Bereich in der schnellsten Medienzone, in die Messung gehen laut c't Cachegröße und -alghotithmus, aber nur zu einem geringen Teil die Zugriffszeit ein. Den ermittelten Wert "verkaufen" die als Transferrate in Durchschnittsanwendungen.
Die Messergebnis ist völlig praxisfremd, da bei niemandem heute alle Daten in einem 6 Megabyte großen Bereich passen. Das 10-fache kann man als Minimum ansetzen, und da geht die Zugriffszeit dann schon erheblich in die Messung ein.
Sowohl Transferrate als auch Prozessorlast sind im realen Betrieb praktisch allerdings überhaupt nur schwer messbar, da die Meßergebnisse ja vom Meßprogramm verfälscht werden.