Programmcode hat im Schnitt einen kritischen Fehler pro 1000 Zeilen Code, sagt die akademische Lehre über Software-Engineering.
Vor ein paar Monaten gab es eine Studie, welche besagte, dass grosse OpenSource-Projekte wie der Linux-Kernel, Apache, etc weit unter diesem Wert liegen.
Warum? Mein Erklärungsversuch ist folgender: Kommerzielle Anbieter von Software müssen zwingend auf bestimmte Termine mit einem bestimmten Featureumfang veröffentlichen. Sonst verlieren sie Geld (bestehende Kunden laufen weg, Neukunden anwerben mit alter Software ist schwierig). Bei non-kommerziellen Anbietern ist dieser Termindruck nicht derart nennenswert, da kann man auch mal kurz über älteren Code drüberschauen und was kleines verbessern. Solche Arbeiten kannst du dir niemals erlauben, wenn du unter Termindruck stehst.
Wenn du als Firma Linux einsetzt, dann sollst du nicht ein Community-Linux verwenden. Für Firmen gibt es kommerzielle Linux-Distributionen (SLES/SLED von Novell, RHEL von RedHat), wofür du garantierten Support des Distributors erhältst. Wenn du das nicht weisst, bist du ein schlechter IT-Entscheider (typischer BWL/Microsoft Fanboy halt - nix Ahnung, aber viel Macht)
Aber ich glaube, du bist sowieso nur ein Troll.