005
01.03.2007, 18:37 Uhr
Modulo
Foren Geselle
|
moin twoc.
Wenn ich aus dem Mono mal wieder nen Dia machen darf...
Grundsätzlich unterscheiden sich meines Wissens nach (und bitte schreit, wenn ich falsch liege) die Mittel zur Bildanzeige von KDE und Windows nicht: Bei beiden wird - keine exotischen Erweiterungen vorausgesetzt - das Bild von der CPU berechnet und an die GraKa geschickt, die es dann noch mal "aufbereitet" an den Monitor leitet. Da die Kabellänge ja nun ebenso wie die Wiederholrate als Fehlerquelle ausscheidet, kann ich mir nicht erklären, an welcher stelle der Signalverlust entstehen soll. Die Grafikkarte wird ja nicht einfach weniger Strom rausschmeißen, nur weil das Bild vom KDE kommt, der nun gerade nen Firefox darstellen soll... 
Es gibt doch so nette VGA-Verstärker. Hast dus damit schon mal getestet oder hat dein Splitter sowas sogar schon eingebaut?
Zitat: | Außerdem KDE basiert unter Kubuntu auf xorg und niemand hat gemeckert.
|
OK. ^^ Kann man das Meckern noch nachholen?
GreetZ, MD
P.S.: Mir ist bewusst, dass mein Posting dir wohl eher nicht weiterhelfen wird, aber ich wollte einfach auch mal meinen Senf dazu geben und dich dem einsamen Monolog entreißen. 
P.P.S.: Mit Windows ist natürlich Win XP gemeint. Vista nutzt ja wohl mittlerweile auch die GraKa zur Bildberechnung... Da fällt mir ein, dass beim Filmschauen ja auch die Grafikkarte zur Berechnung mitgenutzt wird, oder etwa nicht? Schon mal die GraKa getauscht? *g* -- Ordnung ist die primitivste Form des Chaos! Dieser Post wurde am 01.03.2007 um 18:40 Uhr von Modulo editiert. |