Hallo,
ich hab mir zwei Benq RL2450HT gekauft und betreibe diese an einer GTX 560 (nicht Ti).
Vorher hatte ich einen Samsung 226BW und einen Samsung T220. Vor Monitortausch hatte ich eine Leistungsaufnahme des PCs von 65Watt. Jetzt, nach tausch des 226BW gegen den RL2450 habe ich eine Leistungsaufnahme von 110W !!! Wie kann denn das sein, dass ich auf einmal 55W mehr habe als vorher?
Liegt das an den unterschiedlichen Auflösungen die die Graka bringen muss?
Wenn jemand Rat weiß wär ich sehr dankbar.
Grüße
PC-Komplettsysteme 1.600 Themen, 15.780 Beiträge
Liegt das an den unterschiedlichen Auflösungen die die Graka bringen muss?Moin,
eine höhere Auflösung bedeutet natürlich auch mehr Rechenleistung, speziell der Grafikkarte, besonders bei 3D Berechnungen.
Gruß
Maybe
Hallo,
aber gleich 55W im 2D Betrieb???
Als Prozessor arbeitet auch nur ein neuer Ivy i3.
aber gleich 55W im 2D Betrieb???
Das kann ich schlecht beurteilen, da dabei viele Faktoren eine Rolle spielen können.
Du könntest, falls es Windows 7 ist, evtl. mal mit dem System Monitor und dem GPU Monitor schauen, inwieweit eine Auslastung von CPU und GPU vorliegt.
http://www.myfavoritegadgets.info/cleangadget/CleanDownload.html
Werden die Monitore richtig erkannt, bzw. sind die richtigen Treiber installiert, damit sie richtig angesteuert werden?
http://benq.de/support/downloads/index.cfm?productline=5
Wie nutzt Du die beiden Monitore, über einen erweiterten Desktop, oder gespiegelt?
Wie sieht es mit der Systemauslastung generell aus, laufen viele Programme im Hintergrund?
Gruß
Maybe
Hallo,
vielen Dank für deine schnelle Antowrten :).
Vorhin hatte ich die konstellation von einem 24" Benq und einem Samsung T220 22", somit auch zwei unterschiedliche Auflösungen. Die Leistungsaufnahme (nur von dem PC ohne Monitore) war immer um die 110W. Das waren 55W mehr als mit den beiden 22"ern.
Ich habe jetzt beide 24"er an dem PC angeschlossen und siehe da, jetzt ist die Aufnahme wieder bei 61W. Merkwürdig, aber wahr.
Offensichtlich benötigt die GTX 560 bei zwei Monitoren mit unterschiedlichen Auflösungen viel mehr Saft als bei identischen. Ein "gefundenes Fressen" für einen Energieberater ;).
Gute Nacht und danke nochmal :)
Moin,
lass mich raten:
Der 24" BenQ war der primäre Monitor und lief mit Full HD 1920x1080, der 22" Samsung mit einer geringeren.
Dann musste von der Grafikkarte generierte Bild für den Zweitmonitor runter gerechnet werden, was den höheren Verbrauch erklären könnte, bzw. es mussten 2 veschiedene Auflösungen berechnet werden.
Gruß
Maybe
Da muss nichts runtergrechnet werden. Dieses unschöne Phänomen ist aber auch schon länger bekannt: Zocker/Consumer-Karten oder deren Treiber nutz(t)en scheinbar (häufig) keinen Energiesparmodus mehr sobald Bildschirme mit unterschiedlichen Konfigurationen angeschlossen sind. Bei den Workstation-Modelle funktionierte es dann immer noch (ist mit ein Grund warum ich die Quadro-Karten im Einsatz haben). Bei den aktuellen Karten scheint das Problem aber nicht mehr, oder zumindest nicht mehr so dramatisch zu bestehen…
Gruß
Borlander
Danke für den Hinweis, das war mir noch nicht bekannt. Ich habe bisher allerdings auch nur mit identischen Monitoren gearbeitet.
Gruß
Maybe
Es wurde ja schon von anderen gesagt, aber hier noch ein paar mehr Details:
Das Mehr an Strom kommt nicht daher, dass die Grafikkarte so viel zu rechnen hätte, es liegt einzig an fehlenden Optimierungen der Karten und deren Firmware für Multi-Monitor. bis zur letzten / vorletzten Generation sowohl bei Nvidia, als auch bei ATI schalteten die Karten bei reinem Desktop-Betrieb mit mehreren Monitoren nicht mehr in die niedrigsten Taktraten (hauptsächlich beim Speicher) wenn verschiedene Auflösungen verwendet wurden. Beispielsweise schaltet eine ATI 5770 bei zwei Monitoren mit gleicher Auflösung die GPU auf 157 MHz und den Speicher auf 300 MHz, bei verschiedenen Auflösungen schaltet sie die GPU nur runter auf 300 (da bin ich mir nicht mehr ganz sicher) und der Speicher bleibt bei 1200 MHz. Andere Karten verhielten sich ähnlich, was dann je nach Karte einen recht großen Mehr-Verbrauch verursacht. Groteskerweise ist es sogar so, dass teilweise zwei Karten mit jeweils einem Monitor weniger verbrauchen, als eine Karte mit zwei Monitoren und unterschiedlicher Auflösung. Hier gibt es eigentlich nur 4 Lösungen:
- Gleiche Auflösungen nutzen
- Mit dem Mehrverbrauch leben
- Auf Multimonitor verzichten
- Die Karte wechseln
Aktuelle Karten von ATI und Nvidia haben diese "Probleme" nicht mehr, aber ich kann verstehen, dass man eine doch noch recht aktuelle Geforce 560 nicht gleich tauschen will.
Das ist ja echt ein hochinteressantes Thema und gleichzeitig ziemlich entäuschend, dass es bei ATI und NVIDIA bis vor kurzem noch dieses Problem gab.
Vielen Dank für die tolle Diskussionsrunde.
@xafford: ich glaube die GTX 560 fliegt trotzdem raus, weil mir das Teil im 3D Betrieb einfach zu laut ist :D. Die Karte ist ein kompletter Fehlkauf gewesen, da ich nichtmal einen gescheiten "günstigen" GPU Kühler für finde (35€ für Arctin Twin Turbo II lohnt nicht mehr).
Gibt es hier im Forum eine Abteilung die sich mit Energiesparen im IT Bereich beschäftigt? Das Thema wird an sich immer interessanter -_-.
Grüße
Gibt es hier im Forum eine Abteilung die sich mit Energiesparen im IT Bereich beschäftigt?
Zwar nicht explizit, aber ich denke dass das Forum "Nachhaltigkeit" eine gute Anlaufstelle dafür wäre. Was ich Dir aber empfehlen könnte in Bezug auf niedrigen Energieverbrauch bei Multi-Monitor und leisem Betrieb wäre eine Geforce 660 von MSI - die Windforce-Reihe.