Hallo, ich habe seit kurzem eine Nvidia Geforce 7300 GT Grafikkarte in einem älteren Aldi Rechner. Mein Monitor hat auch einen DVI Eingang. Wenn ich das DVI Kabel anschließe, sehe ich zuerst Falschfarben auf dem Schirm, danach schaltet er sich ab. Liegt es an der grafikkarte, oder an einer falschen Einstellung? Ist es ein Treiber Problem (die neuesten Treiber von Nvidia sind installiert, auch der Monitor (19" Flachbild von Samsung) ist ordentlich installiert. Nur mit dem VGA Kabel funktioniert alles einwandfrei!
Für Hilfe wäre ich sehr dankbar
Grafikkarten und Monitore 26.157 Themen, 115.728 Beiträge
Vielleicht kann Dir jemand anders weiterhelfen, vielleicht ist Hilfe aber auch ganz unmöglich...darüber schreibe ich jetzt:
Die HDMI-Schnittstelle funktioniert - in der Regel - nur auf Basis des HDCP-Kopierschutzes/Abspielschutzes.
Zitat aus einer Bedienungsanleitung eines ganz aktuellen Aldi/Medion-DVD-Abpielers (MD 81777, S.15 unten):
"Bitte beachten Sie
Der HDMI-Ausgang wurde nach dem gültigen HDMI-Standard zertifiziert. Trodem kann es in Einzeilfällen vorkommen, dass der Anschluss mit einem DVD- oder HDMI-Anschluss eines anderen Geräts nicht kompatibel ist und dadurch keine fehlerfreie Übertragung möglich ist. Hierbei handelt es sich jedoch nicht um einen Fehler ihres DVD-Players."
Technischer Hintergrund:
http://www.familie-farr.de/hc.htm
http://de.wikipedia.org/wiki/HDCP
http://de.wikipedia.org/wiki/HDMI
(Kabellänge und Kabelqualität)
schönen dank für das Zitat, aber es hat nichts mit einem DVD spieler zu tun. Ich möchte das Bildsignal der Grafikkarte einfach digital auf den Monitor bekommen, mit Hilfe eines DVI - Kabels.
Lies den Scheiß und werde nicht so altklug! :-(
Es ist exakt das Gleiche, ob nun DVD-Abspieler oder Grafikkarte zum Einsatz kommt. HDMI bzw. HDCP funzt nicht, weil man für die Verschlüsselung eine fehlerbehaftete Übertragungstechnik/Verschlüsselung verwendet. Und wenn bei einem Schlüssel ein Bit nicht stimmt... . Fehlerhaftigkeit ist dabei "Industriestandard" bzw. "Zertifizierung".
DRM usw. ist am Ende, die Dinge funktionieren höchstens noch zufällig.
Zitat aus dem Link Familie Farr:
"Kommt es dabei zu Übertragungsfehler auf dem I²C-Bus (der eigentlich mal für Distanzen im cm-Bereich entwickelt worden war und nicht einmal eine Paritätsprüfung besitzt!), dann stimmen die Startwerte für den Zifferngenerator nicht oder die Authentifizierung schlägt komplett fehl."
Ich finde Du solltest bei Nickles nicht mehr Fragen stellen. Es kostet uns ne Menge Mühe den Hight-Tech-Schrott/die Kundenverarschung zu recherchieren und dann brauchen wir nicht die Sorte Feedback, schließlich haben den Mist andere verzapft.
Fazit:
ES GEHT oft NICHT, AUS DIE MAUS! (Zufälle/Ausnahmen nicht ausgeschlossen, aber kaum beeinflussbar.) Die Hersteller sichern sich - wenn sie schlau sind - formelhaft ab, wie z.B. in der Medion-Bedienungsanleitung.
Was hat HDMI mit DVI zu tun ?
http://de.wikipedia.org/wiki/High_Definition_Multimedia_Interface
http://de.wikipedia.org/wiki/Digital_Visual_Interface
Wäre ja schön wenns das selbe ist für HDMI Kosten ja schon die Kabel ein Vermögen ^^.
Ich denke es ist am ehesten ein Treiberproblem dass mit den brandneuen Treibern die nicht funzen hatten wir schon öfter.
Oder ist die Graka von ebay ?
Grüsse
siggi
Ich dachte ich hätte da irgendwo HDMI gesehen, sorry!
Vielleicht zu hohe Auflösung, zuviele Farben, zu hohe Frequenz. Vielleicht mal abgesichert hochfahren und die Grafikeinstellungen auf Standardwerte zurücknehmen wie 1024 x 768 und 16 Bit und 60 Hz. Manche Monitore brauchen auch manchmal noch eine sogenannte Monitor-inf-Datei bevor man sie auf bessere Werte einstellen kann.
leer editiert - sollte im anderen Posting landen.
Mal ganz doof gefragt: Ist vielleicht einfach das DVI-Kabel im Eimer oder falsch belegt? Das lässt sich doch leicht rauskriegen... Es gibt ja auch verschiedene Typen von DVI Verbindungen (DVI-D, -A, -I), vielleicht sind Graka und Monitor oder das Kabel nicht kompatibel? Guck mal bei Wikipedia nach DVI, da steht das schön erklärt mit Bildern.
Gruß,
Till
Den Zusatzstromanschluss auf der Karte hast du angeschlossen und reicht dein Netzteil überhaupt aus....?
Gruß
luttyy
Sieh mal im Nvidiatreiberdialog, ob beide Grafikausgänge aktiv sind, und wenn ja, dann stelle die Bildwiederholfrequenz auf 60Hz, obwohl in diesem Fall eigentlich eine Meldung kommen sollte wie "Out of Range" oder so etwas in der Art. Das ist ein häufiges Problem, wenn vorher eine Röhre angeschlossen war, die ja im Regelfall höhere Frequenzen aufweist, aber am VGA-Anschluß läuft es ja bei Dir. Auch wenn man keine Werbung machen soll, günstige DVI-Kabel gibt es bei www.reichelt.de. Denn in den Filialen der Geiz-ist-geil-Fraktion(egal ob rot,gelb oder anders bunt) nehmen die für so eine 1.80er DVI-D-Strippe schon mal locker 20-25 Eus. Da bist du dort mit Versand noch besser dabei. Ansonsten bleibt nur mal mehr eine andere Graka zum Testen, falls die eingebaute defekt ist.
Tja, das DVI-Kabel war defekt. Habe es jetzt getauscht und alles funktioniert einwandfrei.Vielen Dank für die diversen Tipps und Anregungen, aber so war es die einfachste Lösung.