Hallo,
ich hab mir zwei Benq RL2450HT gekauft und betreibe diese an einer GTX 560 (nicht Ti).
Vorher hatte ich einen Samsung 226BW und einen Samsung T220. Vor Monitortausch hatte ich eine Leistungsaufnahme des PCs von 65Watt. Jetzt, nach tausch des 226BW gegen den RL2450 habe ich eine Leistungsaufnahme von 110W !!! Wie kann denn das sein, dass ich auf einmal 55W mehr habe als vorher?
Liegt das an den unterschiedlichen Auflösungen die die Graka bringen muss?
Wenn jemand Rat weiß wär ich sehr dankbar.
Grüße
PC-Komplettsysteme 1.599 Themen, 15.742 Beiträge
Es wurde ja schon von anderen gesagt, aber hier noch ein paar mehr Details:
Das Mehr an Strom kommt nicht daher, dass die Grafikkarte so viel zu rechnen hätte, es liegt einzig an fehlenden Optimierungen der Karten und deren Firmware für Multi-Monitor. bis zur letzten / vorletzten Generation sowohl bei Nvidia, als auch bei ATI schalteten die Karten bei reinem Desktop-Betrieb mit mehreren Monitoren nicht mehr in die niedrigsten Taktraten (hauptsächlich beim Speicher) wenn verschiedene Auflösungen verwendet wurden. Beispielsweise schaltet eine ATI 5770 bei zwei Monitoren mit gleicher Auflösung die GPU auf 157 MHz und den Speicher auf 300 MHz, bei verschiedenen Auflösungen schaltet sie die GPU nur runter auf 300 (da bin ich mir nicht mehr ganz sicher) und der Speicher bleibt bei 1200 MHz. Andere Karten verhielten sich ähnlich, was dann je nach Karte einen recht großen Mehr-Verbrauch verursacht. Groteskerweise ist es sogar so, dass teilweise zwei Karten mit jeweils einem Monitor weniger verbrauchen, als eine Karte mit zwei Monitoren und unterschiedlicher Auflösung. Hier gibt es eigentlich nur 4 Lösungen:
- Gleiche Auflösungen nutzen
- Mit dem Mehrverbrauch leben
- Auf Multimonitor verzichten
- Die Karte wechseln
Aktuelle Karten von ATI und Nvidia haben diese "Probleme" nicht mehr, aber ich kann verstehen, dass man eine doch noch recht aktuelle Geforce 560 nicht gleich tauschen will.