Hallo,
konnte nicht widerstehen und hab mir einen Miner gebaut. Läuft auch so weit tiptop, hab nur eine Frage zum Stromverbrauch:
Es sind 6 AMD W5700 Pro Grafikkarten drin, 5 davon haben Samsung-Speicher und brauchen je ~90W, eine hat Micron-Speicher, die braucht ~108W. (Ausgelesen per Software) Das kommt auch recht gut hin, hab die Grafikkarten vorher einzeln getestet und mit einem optimierten Mining-BIOS versehen, da lag der Gesamtverbrauch des PCs an einem 500W 80+ Gold-Netzteil bei je ~120W bzw. knapp 140W mit der Micron-Karte. (Geprüft per Stromverbrauchs-Messgerät) Kann man also sagen zum Verbrauch der GraKa kommen 15-20W für Mainboard und CPU hinzu, der Rest ist Eigenverbrauch des Netzteils.
Meine Prognose war daher: ~560W für alle Grafikkarten + 20W Mainboard & CPU + 10% Aufschlag fürs Netzteil = ~640W fürs Gesamtsystem.
Da ich aber für jede Grafikkarte einen 6- und einen 8Pin-PCIe Anschluss brauche (insgesamt 12) und Netzteile mit so vielen PCIe-Anschlüssen kaum zu bekommen sind, bin ich auf 2 Netzteile a 760W und 80+ Platinum (92% Effizienz) ausgewichen. Jedes hat 6 x 8Pin-PCIe Anschlüsse, kommt also genau hin. Last sollte auch kein Problem sein, an einem sind 3 Samsung-Grafikkarten, also ~280W Last, am anderen 2 Samsung, eine Micron und Mainboard/CPU, also ~320W. Und da Netzteile bei ~50% Last bekanntlich am effizientesten laufen, sollte das passen.
Tatsächlich liegt der Gesamtverbrauch des Miners aber bei ~740W, geprüft mit dem Stromverbrauchs-Messgerät. Das ist nicht dramatisch, der Gewinn liegt dann halt bei "nur" 500€/Monat statt 520€.
Trotzdem interessiert mich, wo die zusätzlichen 100W herkommen, bzw. wo mein Rechenfehler liegt? Ideen, anyone? Und bitte keine epischen Diskussionen über Sinn oder Unsinn von Mining...