Suche Handy-Display mit 60Hz Refresh Rate

lupusworax

The beast wihin
Bin jetzt kein Experte aber soweit ich das verstanden habe sind 60Hz 60 vollständige Bildwiederholungen pro Sekunde. Also Pro Sekunde wird das Bild 60 mal komplett dargestellt. Der Mensch sieht mit 60-62 Bildern pro Sekunde, also alles was drüber ist nimmt man gar nicht mehr wahr. Ab 25 Bildern pro Sekunde wie es bei klasischen Disney filmen ist nimmt man auch kein Ruckeln mehr war und eine Animation wirkt flüssig.
Es kommt sicher immer auf den Treiber und Displaytyp an und natürlich auch wie man einen display selbst warnimmt. Der eine Sieht ein schönes Flimmerfreies Bild, ein anderer sieht streifen vom bildaufbau.
V-Sync setzt eine Framerate von 60 Bildern fest was dafür sorgt das jedes Bild vollständig aufgebaut/dargestellt wird bevor das nächste anfängt. Ohne V sync generiert der Rechner mehr bilder als ein älterer bildschirm zb darstellen kann was bei schnellen bewegungen ( fps shootern) für diese geraden unschönen abschnitte im Bild sorgt.
höhere Hz und bildrate bedeutet natürlich auch mehr Energieverbrauch. Bei Benchmarks auf Android Smartphones wird es kaum mehr als 60fps auswerfen das hier einfach der hanhn absichtlich zugedreht wurde. ( es sei den man deaktiviert vsync um das tatsächliche Maximum zu ermitteln wer dazu in der Lage ist)
Keine Ahnung ob es sehr relevant ist und ob die China Smartphone Hersteller sowas in den Produkt specs angeben. Der Großteil der Smartphones läuft glaub ich sogar auf 60Hz.
 
Zuletzt bearbeitet:

firesoul99

New Member
Hm, ja, ich merke nur wie bei meinem Handy ein Schlieren auftritt...und ein extremer Inputlag. Werde in den nächsten Wochen ein Review zu machen, dann siehst du evtl. was ich meine.
Ich habe zuvor auch nicht gedacht, dass mehr als 60fps einen deartigen Unterschied bei der Wahrnehmung machen könnten.
Mein Monitor, aus Korea importiert, läuft mit knapp 100hz und alles läuft runder auf Desktop und in Games - und das bei einem IPS-Panel.
Das gleiche wäre perfekt bei einem Smartphone. Aber du hast wohl recht, wenn du sagst, dass dadurch auch mehr Energie verbraucht würde.
Dennoch würde ich gerne wissen, ob es welche gibt und welche das sind...
 

N2k1

Well-Known Member
Hier werden leider wieder ein paar Dinge durcheinander geworfen.

1. Framerate = Tatsächlich dargestellte Bilder je Sekunde
2. Refresh-Rate = Wiederholung des Bildes durch das Display
3. Latenz = Verzögerung der Ausgabe gegenüber der Scene
4. Blur (Motion Blur) = Bewegungs-Unschärfe

Eine hohe Refresh-Rate sorgt lediglich dafür, daß wir kein Flackern wahrnehmen.
Für viele Menschen ist das bei ca. 15 fps der Fall.. in D hat man sich auf 48 bzw. 50 Hz geeinigt (TV-Norm = 50 Halbbilder je Sekunde im Bildschirmaufbau. Kino 48 Vollbilder)
Unabhängig davon, wie hoch die tatsächliche Refreshrate ist, kann man ein störendes Ruckeln wahrnehmen, wenn die Framerate zu gering ist.
Auch hier geht man üblicherweise von 15-30 fps aus, die für die meisten Dinge ausreichen.
Wenn man aber eine Simulation (Kampf- oder Renn-) laufen hat, dann können auch 50 Bilder je Sekunde zu wenig sein.
Hier gibt es Untersuchungen, die bei Piloten selbst bei 120 Hz noch Reaktionen hervorriefen (Rekord liegt bei einem Einzelbild von 160 Bildern je Sekunde)
Aber selbst wenn Refreshrate und Framerate passen, kann es zu extrem ungünstigen Verhältnissen kommen, wenn die Latenz zu hoch ist.
Für "normale Menschen" gilt: Die Latenz sollte nicht Höher als 80ms sein. (80 ms entspricht also 12,5 Bildern je Sekunde)
Auch hier gab es wieder Untersuchungen bei Piloten, woraufhin das Militär vorschreibt, daß bei einer Simulation die Latenz nicht größer als 40ms sein darf (was ja aber nur 25 fps sind)

Kommt nun aber Motion-Blur dazu, wird es etwas komplizierter.
Motion-Blur + geringe Framerate = Brei.
Motion Blur + hohe Framerate = realistische Darstellung

Bei einem Handy-Display nun unbedingt 60 Hz statt 50 Hz als Refreshrate zu haben ist reine Verkaufspropaganda.
Ebenso ist die Bildinformationsdichte des Displays inzwischen deutlich höher als das Auflösungsvermögen unserer Augen.

Es sei denn, Du bist ein Fluginsekt mit Facettenaugen, dann kannst Du bis zu 250 Bilder je Sekunde aufnehmen (und auch verarbeiten)

Wie hoch die tatsächliche Aufnahmefähigkeit (auf Grund physikalischer und chemischer Zusammenhänge) ist, ist hierbei übrigens nicht mal relevant, da unser Hirn hier der begrenzende Faktor ist.
(Wobei wir ca. 1000 Photonen grünen Lichts je Sekunde brauchen, um ein Leuchten wahrnehmen zu können.)
 

firesoul99

New Member
Ich sehe auch grad, dass sich nach einem Zopo-Smartphone Update die Leistung verbessert hat, d.h. mir scheint, als ob keine krassen Verzögerungen mehr vorkommen.
Trotzdem wird wohl die next gen an phones durch eine Null-Eingabeverzögerung und input lag punkten, hoffe das ist bald.
 

lupusworax

The beast wihin
(Wobei wir ca. 1000 Photonen grünen Lichts je Sekunde brauchen, um ein Leuchten wahrnehmen zu können.)
Na endlich mal einfach und Verständlich ausgedrückt das ganze!!! XD
Sorry aber der Beitrag is schon etwas zu extrem bei aller Liebe.

zu wenig, wenig, etwas mehr, viel mehr, sehr ausführlich, zu ausführlich, woa woa jetzt mal langsam, Ich versteh nur noch Bahnhof, Quantenphysik, Gott, N2k1
 

N2k1

Well-Known Member
Sorry, das in Klammern ist in er Tat Physik LK 12 oder 13 ;-)

Wenn ich irgendwo ausführlicher werden soll, immer sagen .. das ist ein Gebiet, wo es wenigstens Fakten gibt... kein Stochern im Nebel wie auf chinesischen Seiten oder bei GData ;-)
 
Bin jetzt kein Experte aber soweit ich das verstanden habe sind 60Hz 60 vollständige Bildwiederholungen pro Sekunde. Also Pro Sekunde wird das Bild 60 mal komplett dargestellt. Der Mensch sieht mit 60-62 Bildern pro Sekunde, also alles was drüber ist nimmt man gar nicht mehr wahr. Ab 25 Bildern pro Sekunde wie es bei klasischen Disney filmen ist nimmt man auch kein Ruckeln mehr war und eine Animation wirkt flüssig.
Es kommt sicher immer auf den Treiber und Displaytyp an und natürlich auch wie man einen display selbst warnimmt. Der eine Sieht ein schönes Flimmerfreies Bild, ein anderer sieht streifen vom bildaufbau.
V-Sync setzt eine Framerate von 60 Bildern fest was dafür sorgt das jedes Bild vollständig aufgebaut/dargestellt wird bevor das nächste anfängt. Ohne V sync generiert der Rechner mehr bilder als ein älterer bildschirm zb darstellen kann was bei schnellen bewegungen ( fps shootern) für diese geraden unschönen abschnitte im Bild sorgt.
höhere Hz und bildrate bedeutet natürlich auch mehr Energieverbrauch. Bei Benchmarks auf Android Smartphones wird es kaum mehr als 60fps auswerfen das hier einfach der hanhn absichtlich zugedreht wurde. ( es sei den man deaktiviert vsync um das tatsächliche Maximum zu ermitteln wer dazu in der Lage ist)
Keine Ahnung ob es sehr relevant ist und ob die China Smartphone Hersteller sowas in den Produkt specs angeben. Der Großteil der Smartphones läuft glaub ich sogar auf 60Hz.
Auf dem Gebiet bin ich experte :grin: Tatsächlich nimmt das Menschliche Auge im Schnitt 16 Bilder pro Sekunde wahr. Bei Display ist es mit den Herz so dass man ab 60-75 Hz kein Ruckeln mehr wahrnimmt. Das weiss ich weil ich im Elektrohandel gearbeitet habe und viel mit Fernseher zu tun hatte, als Beispiel kann man sich Sendungen aus NTV nehmen weil dort unten immer die Laufschrift kommt. Bei 50 Hz Fernsehern ist diese nicht wirklich Flüssig unterwegs, umso schneller sie durchs Bild läuft umso unlesbarer ist sie. Mir hat man gesagt dass das Menschliche Auge nicht mehr als 100 Hz wahrnehmen könne. Obs stimmt weiss ich nicht ich bezweifle es mal. Bei 3D braucht es aber minimum 500 Hz um gutes 3D zu sehen

Gesendet von meinem N9000 Plus mit Tapatalk
 

N2k1

Well-Known Member
Bei 3D braucht es aber minimum 500 Hz um gutes 3D zu sehen
Wie kommst Du zu diesen Wert?
Und nochmal: Refreshrate und Framerate sind zwei Paar Schuhe.

Bei den 100Hz Fernsehern werden je nach Hersteller Zwischenbilder berechnet, wodurch dann die Laufschrift besser zu lesen ist.
Bei einem normalen Sender werden nur 50 Halbbilder gesendet - also effektiv 25 Hz Framerate.
Da ist es egal, was der Fernseher als Refreshrate hat.
Das ist nur Verkaufsargumentation.
Generell speichern die Geräte beide Halbbilder, womit das Bild schärfer erscheint - und dann eben häufigerer Refresh, weshalb es weniger flackert.
 

eponra

New Member
Dazu noch eine Anekdote aus meiner Ausbildungszeit als Radio- und Fernsehtechniker:

50Hz wurde für unsere Fernsehnorm PAL genommen, da unser Stromnetz mit 50Hz lief, und somit keine Konvertierung innerhalb der Geräte vorgenommen werden musste. Als man später in der Digitalisierung fortschritt, und man das Bild "besser", bzw ruhiger machen wollte, war daher ebenfalls der logische (einfachste) Schritt auf 100 Hz zu gehen. Das zieht sich bei allen Auswüchsen heutiger Zeit (Fernseher mit 200,400,600 oder 800Hz) so weiter, wobei diese rein wirtschaftliche Gründe hatten (um neue Geräte zu verkaufen, muss man etwas neues bieten. Das einfachste war für einige Zeit deshalb die Bildfrequenz anzuheben).
In den USA hatte man als Fernsehnorm NTSC, und das Stromnetz dort läuft mit 60Hz. Daher also diese Frequenz, und alle vielfachen davon in anderen Geräten (120 bzw 240Hz bei Monitoren zB).

Und damals haben wir auch Tests an Bildröhren gemacht, und eigens dafür eine Kamera manipuliert, sodass diese praktische jede Bildwiederholrate wiedergeben konnte die wir wollten. Nun mischt sich das natürlich, und da eine Bildröhre als analoges Bauteil auch vieles "weichzeichnet" war das Ergebnis mitnichten empirisch, aber die meisten von uns Jungspunten konnte um 13-15 aufgenommenen Bildern pro Sekunde kein Flackern mehr erkennen und hätten das Bild als "sauber und flüssig" bezeichnet.
Das zur Grundlagenforschung... *ggg*
 

Ora

®
...
Bei einem normalen Sender werden nur 50 Halbbilder gesendet - also effektiv 25 Hz Framerate.
Und solange diese technische Hürde nicht über wunden ist...können die Gerätehersteller sich noch so strecken, wie sie wollen...
Erst die Veränderung dieser Norm wird neue Dimensionen erschließen.:)



via mobile X8
 

N2k1

Well-Known Member
Man wird diese Norm aber nicht so einfach austauschen...
Siehst Du doch an HD - es muß auch auf der alten Kiste laufen, sonst kannst Du es nicht anbieten.

Die Norm komplett ändern kannst Du nur dann, wenn es wenige User gibt.

Beste Beispiele: Es gab mal Daten-Karten, die ihre Daten aus der Lücke im Bildaufbau herausfischten (gibt es nicht mehr).
Einfach ersatzlos eingestellt .. Hardware nun nutzlos.

Windows: Microsoft würde sich gern von alten Dingen lösen.. aber als der DOS-Mode abgeschafft wurde, wäre das neue System beinahe untergegangen..
 

Ora

®
Wird denn die Austastlücke noch genutzt?
War da nicht der Videotext drin... Lang lang ist es her ....

via mobile X8
 

N2k1

Well-Known Member
Der ist da unter anderem auch drin...
Aber in Zeiten von DVB wäre das alles nicht mehr entscheidend...
(Wobei: Analoge SAT-Technik wurde ja nun auch endgültig abgeschafft..)
 

Mitglieder

Keine Mitglieder online.

Statistik des Forums

Themen
54,358
Beiträge
837,070
Mitglieder
66,934
Neuestes Mitglied
iboac68
Oben Unten