• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

News - Crysis: Nvidia vs. ATI - Testergebnis zur Crysis-Demo aufgetaucht

Cr4zYd0nG am 18.04.2007 15:28 schrieb:
Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein. ;)

da muss man differenzieren zwischen Spiel und Film
Spiele werden in Echtzeit gerendert, jeder Frame ist punktscharf. Aufgenommene Materialien ist da anders, da wird aufgezeichnet, was in 1/23 sek vor die Linse kommt und wird zu einer Frame "verschmolzen", dadurch nimmt der Auge Kamerabilder bei gleicher Framerate als flüssiger wahr.
Natürlich ist die Aussage, dass man bei Spielen keine Frame mehr als 23 braucht, falsch. Oder habt ihr noch nie ein Spiel mit ~20-25 fps gepielt? Das nehme ich eindeutig als rucklig wahr.

Man bedenke außedem, dass selbst 50 fps für eine High-End-Karte nicht viel ist. Als die 7800GTX rauskam, schaffte die Karte bei damals anspruchvollsten Spielen wie Half Life 2, FarCry oder Doom3 teilweise 100fps bei ähnlich hohe Einstellungen wie der Crysis-Test. Denn die Framerate zeigt auch der Potential der Karte, wenn ich mir schon eine High-End-Karte hole, will ich auch, dass die eine Weile lang Games in sehr hohe Settings schafft, und nicht dass sie jetzt schon an ihre Leistungsgrenze stößt.

mfg
Ice
 
Spinal am 18.04.2007 17:03 schrieb:
Knorxel am 18.04.2007 15:50 schrieb:
Cr4zYd0nG am 18.04.2007 15:28 schrieb:
Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein. ;)

Oh, ich behaupte sogar, dass die Beurteilung sogar zu 100 % geraten sein wird!

Bei schnellen Bewegungen sieht man es dann doch.
Macht doch mal den test. Spielt ein Spiel, schaltet die Details so ein, das ihr 60 FPS habt. Dann Details erhöhen und nur 30 FPS, oder sagen wir 35.
Macht dann mal schnelle Bewegungen (zb. Ego Shooter) nach links oder rechts und schaut, ob das nicht etwas anders aussieht als mit 60 FPS.

Zum Thema ATI vs. Nvidia. Ich finde, ATi baut in letzter zeit stark ab. Auf der Seite findet man keine Tech Demos mehr (ich jedenfalls nicht), Support ist mangelhaft (Habe schon mehrfach eine Mail hingeschickt, bis heute keine Antwort). Wenn die neuen Karten nicht DEUTLICH schneller sind als die Nvidias, bin ich enttäuscht. Es ist inzwischen 1/2 Jahr rum seit der 8er Serie von Nvidia. Entweder müssendie neuen Radeons sauschnell sein, oder sehr günstig. Ansonsten fände ich es schwach.
Als die Radeon 9700 Pro rauskam haben viele gesagt, wartet mal auf die Geforce FX, die wird zeigen wo der Hammer hängt. Das Ende vom Lied kenen wir alle. Die Karte hat enttäsucht und erst die 6er Reihe war wieder spitze.
Ich hoffe, dsa wiederholt sich nicht, nur andersrum.

bye
Spinal
Naja ich als ATI Kunde muß auch sagen das die Treibe von Nvidia für die Karten besser sind , allerdings kann mir Nvidia trotzdem keine Karte zeigen die es mit ner ATI karte im berreich Viedeencoding gegen eine ATI mit AviVio Chip aufnehmen kann , da ich meinen PC zum TV und DVD schauen nutze finde ich dei Bildqualität (Contrast) und schärfe bei einer ATI Karte besser und deshalb meine erste Wahl ... allerdings kotzt es mich schon an das sehr oft das Kantenglätung über dem Treiber Catalyst viel später als das erscheinen eines aktuellen Spiels zulässt .. auserdem ist der Ctalyst 7xx der für Vista neu geschrieben wurde unter Windows XP instabiel .. also das CCC hat Datenkurruption und geht unwiederuflich kaputt .. so das Dateien einafch fehlen so das CCC Center nicht mehr startbar ist ... dieser Bug trat auch bei meinem Kumpel auf , also muß irgendwas ma wieder nicht miteiander Kompertiebel sein ...(vermute mal mit XP selber *Updates*) das war bei dem erscheinen des CCC mit dem Rennwagen genauso .. das funste erst 6 Monate später Fehlerfrei ^^

Da hilft nur das Instalieren des alten 6.15 CCC Control Centers ..in Kombi mit dem 7.3 Treiber ... sowas finde ich schon beschissen ...


Das gibs bei Nvidia nicht ... aber sonst Preis Leistung liegt ATI mit seiner X1950er Reihe vorne ^^...
Aufällig das Nvidia mehr Ram auf seinen Karten verbaut .. 700 MB up .. allerdings ist das nach meiner Meinung nen Blender .. und ein Papiertiger , ATI hat schon in der Vergangenheit bewiesen das es auf die Struktur des Chips ankommt und nicht auf die Anzahl der Transistoren oder Menge der Rams ... Chiptakt ... und so .. sondern wie effizient alles zusamen arbeitet !


Naja , Rede hin Rede her ... es ist gut das es ZWEI Konkurrenten gibt die ähnliche 3D Power bieten .. stelle man sich vor was uns die Hersteller abliefern würden bei einem Monopol .. wie es schon mal der Fall war ... 1998/99 mit Nvidia ... wo Voodo pleite ging ... oder mit Intel 1996-2001 ... bis AMD endlich mal kontern konnte mit den XP+ chips ...

Null Inovation bei steigenden Preisen .. also deswegen freuen wa uns alle Nvidianer u ATIeaner das es diesen Wettkampf gibt

:-D
 
Spinal am 18.04.2007 17:03 schrieb:
Knorxel am 18.04.2007 15:50 schrieb:
Cr4zYd0nG am 18.04.2007 15:28 schrieb:
Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein. ;)

Oh, ich behaupte sogar, dass die Beurteilung sogar zu 100 % geraten sein wird!

Bei schnellen Bewegungen sieht man es dann doch.
Macht doch mal den test. Spielt ein Spiel, schaltet die Details so ein, das ihr 60 FPS habt. Dann Details erhöhen und nur 30 FPS, oder sagen wir 35.
Macht dann mal schnelle Bewegungen (zb. Ego Shooter) nach links oder rechts und schaut, ob das nicht etwas anders aussieht als mit 60 FPS.

>:| *kopfschüttel* Dass die Leute es nicht verstehen (wollen) :|

Ich habe extra einen Film als Beispiel genommen, weil sich bei einem PC Spiel die Rahmenbedingungen schwankend ändern. Sogar wenn man 2 gleiche PCs für diese Tests verwenden würde, könnte die eine GPU heißer laufen als die andere und somit die Testergebnisse durch die unterschiedliche Performanceausprägung verfälscht werden. USW. Außerdem wenn man es so macht, wie du es vorschlägst ("Details erhöhen") wird der PC ganz anders gefordert und die fps schwanken noch viel stärker.. -> Ergebnisverfälschung

Außerdem² wenn du dich in einem PC Spiel schnell bewegst gehen die fps in den Keller (ich weiss das, weil ich in CS:S immer die FPS-Anzeige aktiviert habe - und wenn ich eben da schnelle Bewegungen mache und die FPS konstant über 40 fps sind, bemerke ich auch keinen Unterschied bzw. Ruckeln oder dergleichen), weil der PC eben mehr zu rechnen hat etc. also müsste man das dann so machen, dass man feste FPS-Werte festlegen muss, die der PC unter allen Umständen einhalten muss, erst dann wäre so ein Test halbwegs verwendbar - halbwegs deshalb, weil eben auch noch die anderen Faktoren einfließen. Aber nehmen wir mal an all diese Bedingungen seien erfüllt - und lassen die Chaos- und Relativitätstheorie außeracht - also d.h. man macht einen Durchlauf mit 40 fps und einen mit 60 oder von mir aus auch 35 und 50 ... (die unter allen Umständen gehalten werden) wird man keinen Unterschied zwischen den Durchläufen bemerken ;) auch nicht wenn man sich schnell hin und her bewegt bzw. die Sicht schwenkt. :P
 
Du beharrst immer auf deinen "Das gehirn kann nur X Bilder verarbeiten".
Aber das ist nicht die ganze Wahrheit ;)
Technische Aspekte spielen da auch eine Rolle.

Noch kurz was die Hz Zahl eines CRT Monitors betrifft. Das Flimmern kommt daher zustande, das der Strahl am Ende des Bilds von unten rechts unten nach links oben muss. Dies dauert eben länger und das sieht man. Beim TFT hat man das nicht, deshalb ist er bei gleicher Frequenz flimmerfrei.
Wer bei 60 Hz kein Flimmern erkennt sollte mal den kopf drehen und seitlich auf den Monitor schauen. Dann sieht man es.

Aber das ist eigentlich nicht das Thema hier.

bye
Spinal
 
Spinal am 18.04.2007 17:03 schrieb:
Zum Thema ATI vs. Nvidia. Ich finde, ATi baut in letzter zeit stark ab.
oh, dafür kriegt nVidia keine treiber mehr gebacken.
naja ok, mit dem neuesten hatte ich noch keine probleme. aber der ist erst seit heute drauf, der wurde noch nicht so richtig getestet.
 
Spinal am 18.04.2007 18:19 schrieb:
Du beharrst immer auf deinen "Das gehirn kann nur X Bilder verarbeiten".
Aber das ist nicht die ganze Wahrheit ;)
Technische Aspekte spielen da auch eine Rolle.

Ja eben, darum habe ich auch in einem meiner Kommentare davor geschrieben "..wenn der Monitor im stande ist die fps Unterschiede darzustellen.." (frei aus dem Gedächtnis) und auch die Hardware etc. etc. etc. und wenn man dann diese (unbedingt immer konstant bleibenden) fps Zahlen vergleicht, wird man 100% zwischen 30/35 und 50 oder mehr fps keinen Unterschied wahrnehmen. Wie willst du bitte flüssiger als flüssig wahrnehmen? Das Gehirn kann eben ab einer bestimmten Bildfrequenz keinen Unterschied mehr erkennen, bzw. durch die Fähigkeit des Gehirns Bewegungen soz. vorherzurechnen bzw. vorherzugestalten werden sowieso die dazwischengeschobenen Bilder - wie soll ich es ausdrücken - verschluckt bzw. übergangen.

Zum Thema:

Es wird ja im Artikel geschrieben, dass ATI laut diesem dubiosem Benchmark nVidia weit überlegen ist, nur weil es laut Graphik maximal ~10 fps mehr hat bei einer Bilderwiederholfrequenz die ohnehin weit über der für das Gehirn relevanten liegt. Ok sicherlich wird die angeblich kontinuierliche Überlegenheit dort von Bedeutung sein, wo die GPU einen enormen Datenfluß berechnen muss und die FPS unter 30 fps fallen, aber selbst da wird es kein weit überlegener Unterschied sein, wenn es z.B. bei nVidia 20 fps und ATI 30 fps sind. Das Ruckeln, das man dann u.U. wahrnimmt kommt nicht von den fps sondern ist CPU bzw. GPU bedingt. Besonders bei Onlinespielen ist so ein Ruckeln meist auf die Verbindung (den Ping - also den ms-Abstand in denen man die Daten vom Server erhält) zurückzuführen, weil die Spiele so aufgebaut sind, dass alles soz. für einpaar Millisekunden einfriert bis wieder die neuen Daten angekommen und verarbeitet sind.

Spinal am 18.04.2007 18:19 schrieb:
Noch kurz was die Hz Zahl eines CRT Monitors betrifft. Das Flimmern kommt daher zustande, das der Strahl am Ende des Bilds von unten rechts unten nach links oben muss. Dies dauert eben länger und das sieht man. Beim TFT hat man das nicht, deshalb ist er bei gleicher Frequenz flimmerfrei.
Wer bei 60 Hz kein Flimmern erkennt sollte mal den kopf drehen und seitlich auf den Monitor schauen. Dann sieht man es.

Aber das ist eigentlich nicht das Thema hier.

bye
Spinal

Ja darum sage ich ja, man soll nicht Äpfel mit Birnen vergleichen :-D
Dieses flimmern beim CRT ist dann eben nicht wegen den Bildern, die das PC-Spiel an den Monitor sendet, sondern wegen der Bauart eines CRTs bzw. wegen der darin verwendeten Technik. Ich habe natürlich - wenn ich lange auf meinen alten CRT Monitor geschaut habe - ein leichtes Flimmern wahrnehmen können, aber da war es auch egal auf wieviel Hz das Teil eingestellt war, es hat immer einwenig geflimmert ;) besonders wenn man ein empfangsbereites Handy drangehalten hat :B
 
Cr4zYd0nG am 18.04.2007 19:29 schrieb:
Besonders bei Onlinespielen ist so ein Ruckeln meist auf die Verbindung (den Ping - also den ms-Abstand in denen man die Daten vom Server erhält) zurückzuführen, weil die Spiele so aufgebaut sind, dass alles soz. für einpaar Millisekunden einfriert bis wieder die neuen Daten angekommen und verarbeitet sind.
Ich weiß ja nicht welche Onlinerollenspiele du spielst, bei mir ruckelt jedenfalls keines bei einem hohen Ping (bei WOW kann man sogar noch mit seinem Charakter ganz "flüssig" herumlaufen). :rolleyes: Das Spiel wird übrigens auch nicht eingefroren bis neue Daten kommen, sondern führt alle Berechnungen eben mit den letzten bekannten Daten vom Server durch.

Zu den Benchmarkergebnissen:
Natürlich macht es keinen Unterschied ob Crysis mit 60 oder 70 FPS läuft. Bei 20 oder 30 macht es dann aber eben doch einen. Die Angaben sind immerhin Durchschnittswerte, und ich würde mich schon sehr wundern wenn die FPS dauerhaft gleich bleiben. Wenn dein Spiel durchschnittlich mit 20 FPS läuft, bringst du es streckenweise sicher auf weniger als 15 FPS wovon ich persönlich Kopfweh bekomme. Bei einem Ego-Shooter ist das doppelt schlimm, da bei 20 FPS auch die Mausbewegungen mit einer Verzögerung von 50 ms dargestellt werden. Meistens stört das nicht, aber in einer extremsituation kann das entscheidend sein. Außerdem geht es bei dem Benchmark ja garnicht um die FPS alleine, sondern darum welche Grafikkarte die schnellere ist.
 
Pait am 19.04.2007 00:50 schrieb:
Ich weiß ja nicht welche Onlinerollenspiele du spielst, bei mir ruckelt jedenfalls keines bei einem hohen Ping (bei WOW kann man sogar noch mit seinem Charakter ganz "flüssig" herumlaufen). :rolleyes: Das Spiel wird übrigens auch nicht eingefroren bis neue Daten kommen, sondern führt alle Berechnungen eben mit den letzten bekannten Daten vom Server durch.
WoW interpoliert die Daten, soll heißen, dein Client rechnet die Bewegung von deinem Charakter und den der Mobs / Spieler 'selbstständig' hoch, also wie es wahrscheinlich (!) richtig ist.

Das Problem ist nur, dass wenn der Lag vorbei ist die Daten an deinen Clienten geschickt werden, diese Verändert werden, und du im schlimmsten Fall irgendwo in der Pampa stehst zwischen zig Mobgruppen.

Jedes Online-Spiel verwendet andere Berechnungen zum Ausgleich der Ping bzw. Latency-Problematik.
 
Spinal am 18.04.2007 18:19 schrieb:
Noch kurz was die Hz Zahl eines CRT Monitors betrifft. Das Flimmern kommt daher zustande, das der Strahl am Ende des Bilds von unten rechts unten nach links oben muss. Dies dauert eben länger und das sieht man. Beim TFT hat man das nicht, deshalb ist er bei gleicher Frequenz flimmerfrei.
Wer bei 60 Hz kein Flimmern erkennt sollte mal den kopf drehen und seitlich auf den Monitor schauen. Dann sieht man es.

Aber das ist eigentlich nicht das Thema hier.

Der einzige Grund, warum ein CRT flimmert und ein TFT nicht ist, dass ein CRT keine Verzögerung im ms Bereich aufweist. Früher gab es für Arbeitsplätze am PC spezielle Monitore mit einer Phosphorschicht, die extra länger zum Abdunkeln brauchte. Da hat dann auch nichts geflimmert, nur konnten die Leute nicht daran spielen ;)

Wie schafft die Industrie das blos immer, den Leuten ein X für ein U vor zu machen und damit auch noch Geld zu verdienen ;)
Da werden positive Aspekte negativiert um die eigene Ware zu verscherbeln...

Wie gesagt: Bei CRTs hat man extra die Phosphorschicht dahin gehend verbessert, heller und verzögerungsfrei zu sein...
Deswegen kaufen sich Leute heutzutage TFTs ;)

Oder... abstrakter Vergleich: Wer kennt nicht "Froop". Früher gab es Joghurt nur mit "Fruchtbrei", da es Probleme gab, die Früchte als Ganzes im Joghurt zu erhalten.
Dann wurde die Revolution eingeführt: Joghurt mit ganzen Früchten war endlich möglich.
Und heute wird damit geworben, dass "Froop" viel besser ist, weil die "Früchte kleingemixert" sind.... die Leute kaufen es...

Wie TFT Bildschirme mit "Hi Glare" .... :B
 
Rabowke am 19.04.2007 07:15 schrieb:
WoW interpoliert die Daten, soll heißen, dein Client rechnet die Bewegung von deinem Charakter und den der Mobs / Spieler 'selbstständig' hoch, also wie es wahrscheinlich (!) richtig ist.

Das Problem ist nur, dass wenn der Lag vorbei ist die Daten an deinen Clienten geschickt werden, diese Verändert werden, und du im schlimmsten Fall irgendwo in der Pampa stehst zwischen zig Mobgruppen.

Jedes Online-Spiel verwendet andere Berechnungen zum Ausgleich der Ping bzw. Latency-Problematik.


Dieses Interpolieren klappt nur, wenn die User zeitweise das Gleiche wiederholen und die Spielerzahl sich nicht groß verändert.
Silkroad macht das genau so. Lediglich, wenn man in die Stadt kommt und auf einmal 500 Leute herumstehen, kommt es zu "echten" Netzwerk-Rucklern... unter Vista..... unter Xp wartet man ein paar Sekunden, bis das Spiel wieder bereit ist.
 
Der einzige Grund, warum ein CRT flimmert und ein TFT nicht ist, dass ein CRT keine Verzögerung im ms Bereich aufweist.

Das must du mir genauer erklären.......
Was meinst du mit Verzögerung im ms Bereich?

bye
Spinal
 
Spinal am 19.04.2007 09:33 schrieb:
Der einzige Grund, warum ein CRT flimmert und ein TFT nicht ist, dass ein CRT keine Verzögerung im ms Bereich aufweist.

Das must du mir genauer erklären.......
Was meinst du mit Verzögerung im ms Bereich?

bye
Spinal

Hmm.... Ist die Frage metaphorisch gemeint?

Du weißt doch, dass TFTs eine Schaltverzögerung aufweisen. Bestenfalls 2ms, aber von Hell auf Dunkel ist die noch Zeit deutlich langsamer.
Wenn ein CRT ein "weiß" Signal bekommt, ist das Signal auch da... und baut sich nicht erst in 2-20ms auf.
Würde ein TFT so schnell schalten, wie ein CRT, würde es auch auf die "nicht" Signale mit Schwarz reagieren.
 
IXS am 19.04.2007 13:40 schrieb:
Spinal am 19.04.2007 09:33 schrieb:
Der einzige Grund, warum ein CRT flimmert und ein TFT nicht ist, dass ein CRT keine Verzögerung im ms Bereich aufweist.

Das must du mir genauer erklären.......
Was meinst du mit Verzögerung im ms Bereich?

bye
Spinal

Hmm.... Ist die Frage metaphorisch gemeint?

Du weißt doch, dass TFTs eine Schaltverzögerung aufweisen. Bestenfalls 2ms, aber von Hell auf Dunkel ist die noch Zeit deutlich langsamer.
Wenn ein CRT ein "weiß" Signal bekommt, ist das Signal auch da... und baut sich nicht erst in 2-20ms auf.
Würde ein TFT so schnell schalten, wie ein CRT, würde es auch auf die "nicht" Signale mit Schwarz reagieren.

rofl xD :B
Spaßvogel.

Ein CRT flimmert wegen der Bauweise. Ein CRT baut ein Bild auf, lässt ein Bild verschwinden (sprich der Bildschirm wird für ein Sekundenbruchteil schwarz) und baut das nächste Bild auf. (Beispiel: Rot->Schwarz->Gelb->Schwarz->Blau)
Bei einen LCD hingegen Bleibt ein Bild solange bis der Signal für das nächste Bild kommt und dann ändern die Pixeln direkt ihre Farbe. (Beispiel: Rot->Gelb->Blau)
Das ist auch ein grund dafür, wieso die üblichen 16ms (!) Reaktionszeit einer CRT für ein LCD nicht ganz ausreicht, um Bewegungen schlierenfrei darzustellen.
 
ananas45 am 19.04.2007 14:25 schrieb:
rofl xD :B
Spaßvogel.

Ein CRT flimmert wegen der Bauweise. Ein CRT baut ein Bild auf, lässt ein Bild verschwinden (sprich der Bildschirm wird für ein Sekundenbruchteil schwarz) und baut das nächste Bild auf. (Beispiel: Rot->Schwarz->Gelb->Schwarz->Blau)
Bei einen LCD hingegen Bleibt ein Bild solange bis der Signal für das nächste Bild kommt und dann ändern die Pixeln direkt ihre Farbe. (Beispiel: Rot->Gelb->Blau)
Das ist auch ein grund dafür, wieso die üblichen 16ms (!) Reaktionszeit einer CRT für ein LCD nicht ganz ausreicht, um Bewegungen schlierenfrei darzustellen.

Gähn.. setzen 6.
Wenn eine Röhre nur 16ms Verzögerung hätte, würden 60Hz längst ausreichen, damit nichts flimmert.(1000/16=62,5)
Die Reaktionszeit der Röhre liegt im Mikrosekundenbereich.

Keine Karte dieser Welt kann alle Bildschirmdaten gleichzeitig wiedergeben. Deswegen entsteht auch bei TFTs das Zeilenproblem: Die Signale werden von links nach rechts und von oben nach unten gezeichnet. Wenn das Signal 0 ist, schaltet die Elektronik auch auch auf Schwarz um. Woher soll das Display wissen, ob der Wert "0" nun wegen eines Timeouts, oder wegen der anzulegenden schwarzen Farbe vorhanden ist. Ist der Wert 0 muss dieser auch so schnell wie möglich angeglichen werden.
Das gilt auf jeden Fall für analoge Übertragung, sowie "asynchrone" Digitalübertragungen.
 
IXS am 19.04.2007 14:51 schrieb:
Wenn eine Röhre nur 16ms Verzögerung hätte, würden 60Hz längst ausreichen, damit nichts flimmert.(1000/16=62,5)
Die Reaktionszeit der Röhre liegt im Mikrosekundenbereich.
weißt du überhaupt wie eine Röhre funktioniert? Wenn ein Elektronenstrahl einen Punkt zum Leuchten bringt verringert die Helligkeit des Punktes immer mehr, man sagt auch Nachleuchten dazu. Allein deshalb ist eine Reaktionszeit der Röhren genau zu bestimmen unmöglich, weil keine Normen dafür festgelegt wurde. Natürlich wird das Bild schnell aufgebaut, nur verschwinden tuts nicht so schnell. Die besagte 16ms ist ein durchschnitsswert, in diese Zeit wird ein Bild aufgebaut (die Elektronen bringen die Phosphorschicht zum Leuchten) und abgebaut (ende des Nachleuchtens). Da beim LCD das Bild gleich bleibt (siehe unten) kann man die Reaktionszeiten auch nicht miteinander vergleichen

Wenn das Signal 0 ist, schaltet die Elektronik auch auch auf Schwarz um. Woher soll das Display wissen, ob der Wert "0" nun wegen eines Timeouts, oder wegen der anzulegenden schwarzen Farbe vorhanden ist. Ist der Wert 0 muss dieser auch so schnell wie möglich angeglichen werden.

Aufgrund der Art der verwendeten Technik sind LCD-Monitore grundsätzlich flimmerfrei, da ihr Bild durch einen kleinen Puffer bis zur nächsten Zeilenansteuerung stabil bleibt.
http://www.tu-berlin.de/~sdu/ARBS/flachbild.htm

Zwischen zwei Signale bleiben die Kristalle in einer Position, d.h. das Bild ändert sich nicht :rolleyes:

mfg
Ice
 
ananas45 am 19.04.2007 15:42 schrieb:
Zwischen zwei Signale bleiben die Kristalle in einer Position, d.h. das Bild ändert sich nicht :rolleyes:

Aus dem Grund muss beim TFT Schwarz geschaltet werden, wo beim CRT einfach keine Spannung angelegt wird.

Mehr schreibe ich dazu nicht mehr.
 
IXS am 19.04.2007 15:55 schrieb:
ananas45 am 19.04.2007 15:42 schrieb:
Zwischen zwei Signale bleiben die Kristalle in einer Position, d.h. das Bild ändert sich nicht :rolleyes:

Aus dem Grund muss beim TFT Schwarz geschaltet werden, wo beim CRT einfach keine Spannung angelegt wird.

Mehr schreibe ich dazu nicht mehr.
lesen muss man können
 
Warum ich die Frage gestellt habe ist einfach. Ich war der Meinung das Flimmern beim CRT schon erklärt zu haben und bin immernoch überzeugt davon, das es richtig ist.
Das Bild wird durch einen Elektrodenstrahl erzeugt der von links oben nach rechts unten wandert.
Unten rechts angekommen muss er wieder nach links oben und genau das ist es, was Zeit braucht und das Flimmern verursacht.

bye
Spinal
 
Spinal am 19.04.2007 16:46 schrieb:
Warum ich die Frage gestellt habe ist einfach. Ich war der Meinung das Flimmern beim CRT schon erklärt zu haben und bin immernoch überzeugt davon, das es richtig ist.
Das Bild wird durch einen Elektrodenstrahl erzeugt der von links oben nach rechts unten wandert.
Unten rechts angekommen muss er wieder nach links oben und genau das ist es, was Zeit braucht und das Flimmern verursacht.

bye
Spinal
jein. während der zeit, die der Strahl wieder von vorne anfangen muss, dunkelt das bild ab. Daher kommt das Flimmern
 
IXS am 19.04.2007 14:51 schrieb:
Keine Karte dieser Welt kann alle Bildschirmdaten gleichzeitig wiedergeben. Deswegen entsteht auch bei TFTs das Zeilenproblem: Die Signale werden von links nach rechts und von oben nach unten gezeichnet. Wenn das Signal 0 ist, schaltet die Elektronik auch auch auf Schwarz um. Woher soll das Display wissen, ob der Wert "0" nun wegen eines Timeouts, oder wegen der anzulegenden schwarzen Farbe vorhanden ist. Ist der Wert 0 muss dieser auch so schnell wie möglich angeglichen werden.
Das gilt auf jeden Fall für analoge Übertragung, sowie "asynchrone" Digitalübertragungen.
Da die Grafikkarte immer mit 60 Hz an einen 60 Hz Monitor sendet hätte der TFT gar keinen Grund auf schwarz umzuschalten, macht er auch nicht. Auch wenns ruckelt erhält der Bildschirm seine Daten immer noch mit 60 Hz, da das aktuelle Bild im Puffer solange wiedergesendet wird bis das neue da ist.
 
Zurück