Guten Tagh allerseits,
ich habe einen PC Mit AMD-CPU Duron 1600 MHz und Motherboardchipsatz VIA VT8375 Pro SavageDDR KM266 und 2048 MB DDR SDRAM Speicher sowie einer Grafikkarte (Chip?) NVIDIA GeForce4 MX 460. Als Monitor benutze ich neu einen BenQ G2420HDB.
Erreiche ich auf dem Monitor eine bessere Bildqualität (z. B. bei Filmen oder Videos aus dem Internet) wenn ich eine bessere Grafikkarte einbaue und wenn ja, welche Karte wäre angebracht? Vielen Dank für die Antworten.
MfG udo29
Grafikkarten und Monitore 26.156 Themen, 115.722 Beiträge
Hi Udo,
sofern die aktuellen Videos, die Du Dir ansiehst, nicht ruckeln, wirst Du mit ´ner neuen Graka nicht viel reißen können.
Die Farben werden nicht knackiger, Handlungen nicht besser. ;-)
Wenn Du allerdings (auch von der verwendeten Software abhängig) auch HD-Inhalte wiedergeben oder auch bearbeiten möchtest oder evtl. auch Spiele spielen möchtest, wäre eine neue Graka schon angesagt.
Hilft das?
Gruß,
Dirk
Mit der vorhandenen Hardware kann man davon auf diesem Rechner nur träumen.
Hi,
sollte die Grafikkarte die Auflösung liefern, die der Monitor braucht, also 1920x1080 Pixel, dann bringt eine neue Karte nicht viel
Wenn die GraKa die Auflösung nicht anbietet, kannst Du versuchen einen neuen Treiber mit dieser Auflösung von Nvidia down zu loaden -falls der den angeboten wird.
http://geizhals.at/deutschland/a491472.html
Damit laufen da auch HD Videos, weil die GPU die Arbeit übernimmt.
Die schlechte Bildqualität sollte übrigens von ner falschen Auflösung herrühren, 1920 x 1080 (die der G2420HDB für ein gutes Bild braucht) liefert auch die MX 460.
XP?
Dann diesen Treiber installieren:
http://www.nvidia.de/object/winxp_2k_93.71_de.html
Vorher diesen VIA Chipsatztreiber installieren, den alten Grafiktreiber deinstallieren und neustarten:
http://www.viaarena.com/Driver/VIA_HyperionPro_V524A.zip
Frage:
eine bessere Bildqualität (z. B. bei Filmen oder Videos aus dem Internet)
Antwort:
Damit laufen da auch HD Videos, weil die GPU die Arbeit übernimmt.
Ich halte das für ein Gerücht.
Unified Video Decoder ist dann auch ein absolutes Fremdwort für dich...
http://en.wikipedia.org/wiki/Unified_Video_Decoder
Die HD 4350 übernimmt die gesamte Decodierung!
http://en.wikipedia.org/wiki/Unified_Video_Decoder
Die HD 4350 übernimmt die gesamte Decodierung! Sicher!?
Du musst das ja Wissen, denn Du bist ja derjenige von und beiden der alles selber ausprobiert, gelle?
Absolut sicher!!!
Hab Ich schon bei nem XP 2000+ (Sempron 2300) selbst ausprobiert und die sind nicht schneller als ein Duron 1600...
Bei ner GraKa ohne volle UVD Unterstützung lief HD abgehakt mit richtiger GraKa wunderprächtig...
Nervt dich dein Unwissen nicht selbst, oder bist du ein geistiger Freund von Hermann?
Wenn ich unwissend wäre, wie könnte es mich dann nerven, ich wüsste es ja gar nicht. :-D
Und wer ist Hermann, Hermann Löhns oder Hermann Löhns oder Hermann den Cherusker?
richtiger GraKa wunderprächtig...
Dann müsste es mit einer ATI HD 5xxx ja noch viel wunderprächtigerlaufen, oder:-Q
Lesen ist nicht dein Ding und UVD 2.2 ist UVD 2.2, ne schnellere Karte bringt da absolut nix!
Übrigens wer sich hier im Forum so tummelt wie du und Hermann nicht kennnen will, der hat mindestens Tomaten auf den Augen...
Moment, ich dachte, es wäre ein Forum für Anfänger und Profis????
Übrigens wer sich hier im Forum so tummelt wie du und Hermann nicht kennnen will, der hat mindestens Tomaten auf den Augen...
Bin erst kurz dabei, daher kenne ich Hermann auch nicht! Ist das strafbar?
Oder meinst Du den allgemeinen "Hermann", den man überall findet?
Gruß
Maybe
der Hermann, den man überall findet, heißt eigentlich John Doe.
Oder - falls Frau - Jane Doe.
Hier reden wir aber von Herman4 (Achtung: nur ein "n"!).
Zu diese UVD-Gedöns kann ich nicht viel sagen.
Aber ich weiß, daß Grafikkarten bei schwachen CPUs die Berechnung für HD-Filme übernehmen können. Somit kann es auch passen, daß man auf alten Systemen HD-Filme ruckelfrei gucken kann.
Nötig hierzu ist aber die Unterstützung seitens der Wiedergabesoftware, und das tut eben bislang nicht jede, erst recht nicht der Win Media Player.
Soweit mein Kenntnisstand. Und jetzt wieder: Ring frei. :-)
D.
Oder - falls Frau - Jane Doe.
Cool, so alt, wie die beiden sind, sich dennoch an das Internet zu trauen und sich in Foren rumzutreiben, .... Respekt :-). Vor allem, wenn man bedenkt, wie oft man die beiden schon beerdigt hat.
die sind wie James Bond oder Donald Duck:
die altern nicht. :-)
D.
Und Alpha13 kennt die persönlich, alle Achtung, muss der alt aussehen.
Herman4 = der Hermann steht für Ignoranz pur und genau den meine Ich und jeder, der hier länger unterwegs ist kennt ihn auch...
Ob und wie die Graka die Dekodierung übernimmt, hängt nicht nur mit der Karte zusammen, sondern auch mit der eingesetzten Software zum Abspielen. Erst dann kann GPU-Decoding eingesetzt werden!
Der VLC unterstützt beispielsweise die HD Decodierung bei ATI Grafikkarten jetzt erst seit Version 1.1.1
http://www.news-und-tests.de/2010/07/vlc-1-1-1-gpu-decoding-jetzt-auch-fur-ati-grafikkarten/
Aber da sind wir doch schon bei 1.1.4 oder?
Das ist also nicht mehr so ganz neu.
Aber das spielt auch keine so große Rolle weil ich ja eh von nix keine Ahnung habe. :-)
Naja, den Schuh zieh ich mir nicht an :-)!
Da es der VLC noch nicht lange kann, kann man einfach mal davon ausgehen, dass GPU-Decoding unter WMP, oder gar im Browser, noch überhaupt nicht funktioniert.
Auf den Menschen bezogen: Nur weil es einer kann (GPU), heißt das noch nicht, dass er es auch macht, also überlässt er es dem überlasteten Kollegen (CPU), bis ihn der Chef dazu zwingt (passende Software).
Gruß
Maybe
War auch nicht Dein Schuh.:-)
Man muss ja auch einmal fragen, was der eine oder andere so unter HD und ruckelfrei alles versteht.
Ich habe ganz am Anfang geschrieben, dass das mit dem PC nicht bringt, dabei bleibe ich.
:-) gute Frage, was versteht man unter HD
Full HD ist 1920x1080 (1080p)
Half HD 1280x720 (720p)
Videos bei Youtube sind max 720p, auch ARD und ZDF senden Ihr HD in 720p/50 (50 steht für Halbbilder)
Ergo ist fernsehen in HD momentan kein Full HD und die Hardware, ob nun Fernseher oder PC, kann eigentlich mehr, als empfangen wird.
Hatte ich eigentlich schon meinen alten Röhrenfernseher erwähnt??? :-)
Das ist mir ja alles bekannt.
Nur es gibt immer noch Leute die sind der Ansicht, das alles was nicht flimmert schon HD ist.
Aber warum senden die vermeintlichen HD-Sender kein full HD?
Weil die Datenmengen, die da bewegt werden müssen, einfach viel zu groß sind.
Was bei einen Röhrenmonitor oder Fernseher unscharf wirkt, ist beim TFT zwar klarer aber häufig mit "kleinen Klötzchen" durchsetzt.
Gut man hat die Wahl zwischen Dusche oder Brause. :-)
He, cool, mein Röhrenfernseher hat also HD? Der flimmert auch nicht!
Im Ernst, ich weiß schon, was Du meinst. Sicher sind es gewaltige Datenmengen, die bei HD übertragen werden müssen. Darum wird Full HD wohl eher in den PayTV-Bereich fallen.
Mal abgesehen davon, dass eine kontinuierlische Ausstrahlung vollkommener Quatsch wäre. Alles, was älter und nicht HD ist, müsste neu aufbereitet, digitalisiert und kodiert werden. Alte Klassiker in HD, oder gar die Simpsons? Das macht keinen Sinn!
Genau darum hab ich meine alte Röhre noch. Noch muss ich mir keine Gedanken um Auflösung und ruckelfreie Wiedergabe machen. Und einige gerippten Filme, die auf einem LCD besch... aussehen, kann ich immer noch wunderbar anschauen!
Ähm, sind wir eigentlich noch Topic?
Gruß
Maybe
100 Hz?
Ähm, sind wir eigentlich noch Topic?
Ich denke schon, schließlich lautete die Frage: Besseres Bild mit neuer Grafikkarte
Diese Frage habe ich mit einem klaren "JEIN" beantwortet. Gut ich hätte sie auch mit einem unverbindlichen "Ja-aber" bedenken können.:-)
@Udo29 kam daraufhin ja schon um 11.18 Uhr zu der Erkenntnis "das lohnt sich nicht".
Ja, ein 100 Hz Panasonic
HD wird auch sehr oft gleichgesetzt mit LCD, LED oder Plasma.
Das ist ja so auch nicht richtig, denn es gibt auch HD Röhrenfernseher, siehe hier:
http://www.areadvd.de/dvd_reviews/2006/Philips_32PW9551_01.shtml
Und genau die Vorteile, die da aufgelistet sind, sind auch meine Meinung. Bisher habe ich, außer Plasma, noch kein Gerät gesehen, das mich überzeugt hätte,zu wechseln. Und ein Plasma hat keine wirklich hohe Lebensdauer, im Vergleich zur Röhre!
HD wird mit dieser CPU niemals ruckelfrei laufen.
Und beim Kauf einer neuen Graka solltest Du darauf achten, dass Du eine Karte für den AGP-Steckplatz brauchst. Die meisten aktuellen Grakas haben einen anderen Steckplatz, PCI-Express.
Auch braucht eine schnellere Karte, mit hoher Wahrscheinlichkeit, mehr Strom vom Board und Netzteil, evtl. über zusätzliche Stromanschlüsse, die Dein Netzteil wahrscheinlich noch nicht hat.
Eine Nvidia Geforce 7600, oder eine ATI 3850 dürften das höchste sein, was Du noch einbauen könntest, wenn die restliche Hardware mitspielt. Allerdings wären diese dann die bei weitem schnellsten Bauteile und würden durch den Rest ausgebremst.
Kurz und gut, HD wirst Du mit dieser Maschine nicht ruckelfrei sehen können. Das geht nicht mal mit meinem 3 GHz Pentium 4 HT mit 2GB Ram und ATI x600
Warum? Nur, weil Deine Grafikkarte und Dein Monitor HD Auflösung anzeigen können, heisst das noch nicht, dass die Leistung für die Codierung und Decodierung von HD Inhalten ausreicht!
Gruß
Maybe
Hast Du den Bildschirm digital (über DVI) angeschlossen?
bei Filmen oder Videos aus dem Internet
Da kannst Du sowieso keine überragende Bildqualität erwarten...
Gruß
Borlander
DVI bei einer GF 4 MX? Sehr unwahrscheinlich! Wohl eher Sub-D.
Naja, Youtube in 720p kann man sich schon recht gut anschauen!
Würde ich dir abratten wenn die jetzt Filme flüssig laufen.
Die CPU würde die Leistung ausbremsen.
Vielen Dank für die Antworten. Offensichtlich lohnt sich bei meinem PC eine neue Grafikkarte nicht. Die von Alpha13 vorgeschlagene Änderung der Treiber habe ich noch nie gemacht und ich werde wohl auch als absoluter Laie in diesen Dingen die Finger davon lassen.
MfG udo29
Hallo,
nach dem Kauf einer Grafikkarte zum Preise von, sagen wir mal, 50 Euro ist dein Rechner anschließend 70 Euro wert.
Lohnt sich das?
MfG
Erwin