ich habe einen PC Mit AMD-CPU Duron 1600 MHz und Motherboardchipsatz VIA VT8375 Pro SavageDDR KM266 und 2048 MB DDR SDRAM Speicher sowie einer Grafikkarte (Chip?) NVIDIA GeForce4 MX 460. Als Monitor benutze ich neu einen BenQ G2420HDB.
Erreiche ich auf dem Monitor eine bessere Bildqualität (z. B. bei Filmen oder Videos aus dem Internet) wenn ich eine bessere Grafikkarte einbaue und wenn ja, welche Karte wäre angebracht? Vielen Dank für die Antworten.
sofern die aktuellen Videos, die Du Dir ansiehst, nicht ruckeln, wirst Du mit ´ner neuen Graka nicht viel reißen können.
Die Farben werden nicht knackiger, Handlungen nicht besser. ;-)
Wenn Du allerdings (auch von der verwendeten Software abhängig) auch HD-Inhalte wiedergeben oder auch bearbeiten möchtest oder evtl. auch Spiele spielen möchtest, wäre eine neue Graka schon angesagt.
sollte die Grafikkarte die Auflösung liefern, die der Monitor braucht, also 1920x1080 Pixel, dann bringt eine neue Karte nicht viel
Wenn die GraKa die Auflösung nicht anbietet, kannst Du versuchen einen neuen Treiber mit dieser Auflösung von Nvidia down zu loaden -falls der den angeboten wird.
Damit laufen da auch HD Videos, weil die GPU die Arbeit übernimmt.
Die schlechte Bildqualität sollte übrigens von ner falschen Auflösung herrühren, 1920 x 1080 (die der G2420HDB für ein gutes Bild braucht) liefert auch die MX 460.
der Hermann, den man überall findet, heißt eigentlich John Doe.
Oder - falls Frau - Jane Doe.
Hier reden wir aber von Herman4 (Achtung: nur ein "n"!).
Zu diese UVD-Gedöns kann ich nicht viel sagen.
Aber ich weiß, daß Grafikkarten bei schwachen CPUs die Berechnung für HD-Filme übernehmen können. Somit kann es auch passen, daß man auf alten Systemen HD-Filme ruckelfrei gucken kann.
Nötig hierzu ist aber die Unterstützung seitens der Wiedergabesoftware, und das tut eben bislang nicht jede, erst recht nicht der Win Media Player.
Soweit mein Kenntnisstand. Und jetzt wieder: Ring frei. :-)
der Hermann, den man überall findet, heißt eigentlich John Doe.
Oder - falls Frau - Jane Doe.
Cool, so alt, wie die beiden sind, sich dennoch an das Internet zu trauen und sich in Foren rumzutreiben, .... Respekt :-). Vor allem, wenn man bedenkt, wie oft man die beiden schon beerdigt hat.
Cool, so alt, wie die beiden sind, sich dennoch an das Internet zu trauen und sich in Foren rumzutreiben, .... Respekt :-). Vor allem, wenn man bedenkt, wie oft man die beiden schon beerdigt hat.
Und Alpha13 kennt die persönlich, alle Achtung, muss der alt aussehen.
Ob und wie die Graka die Dekodierung übernimmt, hängt nicht nur mit der Karte zusammen, sondern auch mit der eingesetzten Software zum Abspielen. Erst dann kann GPU-Decoding eingesetzt werden!
Der VLC unterstützt beispielsweise die HD Decodierung bei ATI Grafikkarten jetzt erst seit Version 1.1.1
Da es der VLC noch nicht lange kann, kann man einfach mal davon ausgehen, dass GPU-Decoding unter WMP, oder gar im Browser, noch überhaupt nicht funktioniert.
Auf den Menschen bezogen: Nur weil es einer kann (GPU), heißt das noch nicht, dass er es auch macht, also überlässt er es dem überlasteten Kollegen (CPU), bis ihn der Chef dazu zwingt (passende Software).
Videos bei Youtube sind max 720p, auch ARD und ZDF senden Ihr HD in 720p/50 (50 steht für Halbbilder)
Das ist mir ja alles bekannt.
Nur es gibt immer noch Leute die sind der Ansicht, das alles was nicht flimmert schon HD ist.
Aber warum senden die vermeintlichen HD-Sender kein full HD?
Weil die Datenmengen, die da bewegt werden müssen, einfach viel zu groß sind.
Was bei einen Röhrenmonitor oder Fernseher unscharf wirkt, ist beim TFT zwar klarer aber häufig mit "kleinen Klötzchen" durchsetzt.
Gut man hat die Wahl zwischen Dusche oder Brause. :-)
Nur es gibt immer noch Leute die sind der Ansicht, das alles was nicht flimmert schon HD ist.
He, cool, mein Röhrenfernseher hat also HD? Der flimmert auch nicht!
Im Ernst, ich weiß schon, was Du meinst. Sicher sind es gewaltige Datenmengen, die bei HD übertragen werden müssen. Darum wird Full HD wohl eher in den PayTV-Bereich fallen.
Mal abgesehen davon, dass eine kontinuierlische Ausstrahlung vollkommener Quatsch wäre. Alles, was älter und nicht HD ist, müsste neu aufbereitet, digitalisiert und kodiert werden. Alte Klassiker in HD, oder gar die Simpsons? Das macht keinen Sinn!
Genau darum hab ich meine alte Röhre noch. Noch muss ich mir keine Gedanken um Auflösung und ruckelfreie Wiedergabe machen. Und einige gerippten Filme, die auf einem LCD besch... aussehen, kann ich immer noch wunderbar anschauen!
Und genau die Vorteile, die da aufgelistet sind, sind auch meine Meinung. Bisher habe ich, außer Plasma, noch kein Gerät gesehen, das mich überzeugt hätte,zu wechseln. Und ein Plasma hat keine wirklich hohe Lebensdauer, im Vergleich zur Röhre!
Und beim Kauf einer neuen Graka solltest Du darauf achten, dass Du eine Karte für den AGP-Steckplatz brauchst. Die meisten aktuellen Grakas haben einen anderen Steckplatz, PCI-Express.
Auch braucht eine schnellere Karte, mit hoher Wahrscheinlichkeit, mehr Strom vom Board und Netzteil, evtl. über zusätzliche Stromanschlüsse, die Dein Netzteil wahrscheinlich noch nicht hat.
Eine Nvidia Geforce 7600, oder eine ATI 3850 dürften das höchste sein, was Du noch einbauen könntest, wenn die restliche Hardware mitspielt. Allerdings wären diese dann die bei weitem schnellsten Bauteile und würden durch den Rest ausgebremst.
Kurz und gut, HD wirst Du mit dieser Maschine nicht ruckelfrei sehen können. Das geht nicht mal mit meinem 3 GHz Pentium 4 HT mit 2GB Ram und ATI x600
Warum? Nur, weil Deine Grafikkarte und Dein Monitor HD Auflösung anzeigen können, heisst das noch nicht, dass die Leistung für die Codierung und Decodierung von HD Inhalten ausreicht!
Vielen Dank für die Antworten. Offensichtlich lohnt sich bei meinem PC eine neue Grafikkarte nicht. Die von Alpha13 vorgeschlagene Änderung der Treiber habe ich noch nie gemacht und ich werde wohl auch als absoluter Laie in diesen Dingen die Finger davon lassen.