Προς το περιεχόμενο

Gaming Monitors News/Comparison


Προτεινόμενες αναρτήσεις

Δημοσ. (επεξεργασμένο)
1 ώρα πριν, aki είπε

image.png.6a822407d289b47bf48ab13c543b243e.png

Έκανα Crop και Gaussian για να φανεί καλύτερα και έχεις δίκιο, είναι Local Dimming πρόβλημα.

Το Top Bracket γίνεται πιο φωτεινό στη δεξιά γωνία (δίπλα στα φωτεινά άνθη), τo Berries Icon είναι πάνω από καφέ background και το 5 είναι ανεπαίσθητα πιο φωτεινό στο κάτω τμήμα (γρασίδι) από το πάνω τμήμα (βράχος).

Είναι φυσιολογικό να υπάρχει γκριζάρισμα(λόγω dimming) σε αρκετά σκούρο φόντο. Όχι χρώμα πάντως. Αν πειράξεις χρώματα χωρίς να ξέρεις τι κάνεις είναι εύκολο να προκαλέσεις χρωματισμούς σε κάποιους τόνους του γκρι. Γι αυτό το καλιμπράρισμα με το μάτι το κάνεις μόνο με gray scale και σβηστό φως. Επίσης, οι αλγόριθμοι local dimming λαβάνουν υπόψη και την τοπική και την ολική φωτεινότητα(APL) για να αποφασίσουν ΑΝ και πόσο θα dimmaρουν καθώς και το μέγεθος του λευκού αντικειμένου.

Δες μια ακραία περίπτωση από παλιό μου screen για να καταλάβεις πόσο δύσκολο είναι να έχεις γκριζάρισμα ή και χρωματισμό σε μια τόσο φωτεινή σκηνή σαν αυτή που δείχνει ο iazriel. Με εξαίρεση τις κάτω ενδείξεις οι υπόλοιπες δείχνουν σχετικά ΟΚ. Ειδικά η ένδειξη της ορατότητας από  εχθρούς(μάτι) που έχει και την μεγαλύτερη επιφάνεια.

Spoiler

HZD.jpg.f05f41893d683b4366d2beaa65ddb3b2.jpg

 

Επεξ/σία από pirmen56
  • Απαντ. 4,9k
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοσ. (επεξεργασμένο)
17 minutes ago, pirmen56 said:

Γι αυτό το καλιμπράρισμα με το μάτι το κάνεις σε gray scale με σβηστό φως.

Καλό είναι όταν κλείσουμε το φως να μην ειναι άλλος στον χώρο, ποτέ δεν ξέρεις τι γίνεται.

Και πριν το καλιμπράρισμα ή και μετά, να μας κάνουν το μάτι για κάθε ενδεχόμενο.

😛

 

Επεξ/σία από prefuse
Δημοσ. (επεξεργασμένο)

Επειδή τα πολλά λόγια είναι φτώχεια. Το ρεζουμέ είναι αυτό:

In short, while a 1000-nit master on a 1000-nit TV requires *less* tone mapping than higher-nit content, some processing is still likely due to the HDR10 framework and display-specific optimizations. Trim passes help, but perfect 1:1 replication without adjustments is rare in practice.

Με το σκεπτικό λοιπόν ότι το HDR δεν είναι ώριμο πρότυπο και το τελικό αποτέλεσμα εξαρτάται από τις δυνατότητες της οθόνης(άρα δεν θα έχουμε 100% πιστότητα σε τίποτα) πάμε στην οθόνη που θα διατηρήσει όσο το δυνατόν καλύτερα το αρχικό εύρος. Ειδικά όταν ο στόχος του δημιουργού είναι ο ρεαλισμός. Από τα παρακάτω(Spears and Muncil) τι δείχνει πιο κοντά στην πραγματικότητα:

Spoiler

naturesintent.jpg.7a67549f20422b409864ba02e14efdc6.jpg

naturesintent_2.jpg.1f54123cfeba2053544a9a521e389649.jpg

Για να βοηθήσω λίγο. Όταν κάποιος αναζητά πληροφορίες για το HDR τα συγκριτικά παραδείγματα που θα βρει είναι κάπως έτσι:

SDR_vs_HDR_clips_13_480x480.png?v=169038

Spoiler

spacer.png

 Το HDR παρουσιάζεται στον μέσο άνθρωπο σαν πιο φωτεινό, πιο contrasty και με πιο κορεσμένα χρώματα.

Αν τώρα στην πορεία το κατακρεούργησαν επειδή κάποιες οθόνες δεν μπορούσαν να το υποστηρίξουν είναι άλλου παπά ευαγγέλιο.

Επεξ/σία από pirmen56
Δημοσ.
1 ώρα πριν, pirmen56 είπε

Είναι φυσιολογικό να υπάρχει γκριζάρισμα(λόγω dimming) σε αρκετά σκούρο φόντο. Όχι χρώμα πάντως. Αν πειράξεις χρώματα χωρίς να ξέρεις τι κάνεις είναι εύκολο να προκαλέσεις χρωματισμούς σε κάποιους τόνους του γκρι. Γι αυτό το καλιμπράρισμα με το μάτι το κάνεις μόνο με gray scale και σβηστό φως. Επίσης, οι αλγόριθμοι local dimming λαβάνουν υπόψη και την τοπική και την ολική φωτεινότητα(APL) για να αποφασίσουν ΑΝ και πόσο θα dimmaρουν καθώς και το μέγεθος του λευκού αντικειμένου.

Δες μια ακραία περίπτωση από παλιό μου screen για να καταλάβεις πόσο δύσκολο είναι να έχεις γκριζάρισμα ή και χρωματισμό σε μια τόσο φωτεινή σκηνή σαν αυτή που δείχνει ο iazriel. Με εξαίρεση τις κάτω ενδείξεις οι υπόλοιπες δείχνουν σχετικά ΟΚ. Ειδικά η ένδειξη της ορατότητας από  εχθρούς(μάτι) που έχει και την μεγαλύτερη επιφάνεια.

  Απόκρυψη περιεχομένων

HZD.jpg.f05f41893d683b4366d2beaa65ddb3b2.jpg

 

Αν προσεξεις ντιμαρει μονο το εικονιδιο ,το 5 απο κατω  οχι ,οπως και το σχεδιακι απο πανω επισης. Θεωρω οτι το ντιμαρει γιατι εχει μαυρες λεπτομεριες  μεσα.

Δημοσ. (επεξεργασμένο)
2 hours ago, prefuse said:

Είχα προτείνει να ψάξεις στο ίντερνετ, αφού φαίνεται ότι δεν το έκανες...

Sorry βλέπω ChatGPT και με πιάνουν τα γέλια. Στη δουλειά μου που την ξέρω καλά αφού την σπούδασα και την κάνω 25 χρόνια οι διάλογοι μου με το ChatGPT είναι του στυλ "are you hallucinating again" / "why do you keep writing wrong opinions and lead to wrong assumptions instead of simply do what i ask you without comments", μόλις το ρωτήσεις κάτι που δεν είναι ξεκάθαρα γραμμένο σε κάποιο website αρχίζει τις αμπελοφιλοσοφίες. Δεν αμφισβητώ ότι σε θέματα που δεν γνωρίζω έχει απίστευτα παραπάνω γνώσεις από εμένα, όμως δεν είναι το σωστό εργαλείο για να καταλάβεις κάτι σε βάθος και χωρίς λάθη (το λέει και το disclaimer του).

Eδώ η περίπτωση είναι καθαρά αμπελοφιλοσοφία, γράφει " the TV may still apply subtle tone mapping to adapt the PQ curve to its specific display characteristics (e.g., color volume, roll-off near peak brightness)" σαν την Πυθεία, μπορεί αλλά μπορεί και όχι. Το ρωτάς για όρια μικρότερα από peak brightness και σου απαντάει "roll-off near peak brightness".

"Variations between the mastering monitor and the consumer TV (e.g., panel type, color primaries) often necessitate adjustments to preserve creative intent, even if nit levels match" -> εκτός θέματος ή εκτός θέματος η ερώτηση που του είχες κάνει;

Και στην τελική τι μας νοιάζει αν κάνει minimal processing; Θα το δει κάποιος με το μάτι αυτό; Υπάρχει κάποια αμφιβολία ότι γίνεται processing; Αυτό που μας ενδιαφέρει είναι ότι το HDR10 είναι absolute (το κάθε pixel έχει ένα value που μεταφράζεται σε συγκεκριμένα nits από το 0 μέχρι το 10.000, σε αντίθεση με το HLG. Οπότε αν έχεις ένα content με MaxCLL μικρότερο από το monitor τότε όπως μπορούν εμπειρικά να σου πουν πολλοί δεν πρόκειται να δεις καμένα highlights ούτε άλλα προβλήματα και θα δεις την ίδια εικόνα, με την ίδια φωτεινότητα σε διαφορετικές τηλεοράσεις (film maker mode) και οθόνες .

Για να επανέρθουμε όμως στην αρχική κουβέντα του quote μου η επίδραση όλων αυτών που συζητάμε (ιδίως όταν το MaxCLL είναι μικρότερο από τις δυνατότητες του monitor) είναι απειροελάχιστη σχετικά με το πόσο σκοτεινή θα δείχνει η HDR εικόνα, αυτό είναι καθαρά αποτέλεσμα ότι ο χρήστης δεν έχει την επιλογή brightness ώστε να ρυθμίσει την οθόνη/τηλεόραση στα διπλά/τριπλά nits από ότι έχει γίνει master όπως κάνει με το SDR και το monitor δείχνει ακριβώς τα nits που γράφει η ταινία.

Επεξ/σία από elpenor
Δημοσ. (επεξεργασμένο)
57 minutes ago, pirmen56 said:

 Το HDR παρουσιάζεται στον μέσο άνθρωπο σαν πιο φωτεινό, πιο contrasty και με πιο κορεσμένα χρώματα.

Αν τώρα στην πορεία το κατακρεούργησαν επειδή κάποιες οθόνες δεν μπορούσαν να το υποστηρίξουν είναι άλλου παπά ευαγγέλιο.

Το ότι δεν μπορείς να βρεις το εμφανές λάθος στις παραπάνω εικόνες HDR, SDR αποδεικνύει περίτρανα ότι δεν έχεις καταλάβει ούτε τα βασικά. Μήπως θέλεις να πάρουμε την βοήθεια 50/50 του κοινού ή να τηλεφωνήσουμε τον @elpenor ?

57 minutes ago, pirmen56 said:

Από τα παρακάτω(Spears and Muncil) τι δείχνει πιο κοντά στην πραγματικότητα:

Χαίρομαι που ανακαλύψες τους Spear and Munsil αν και τον τελευταίο του κατακρεουργησες το όνομα.

Δες όμως και τις πολύωρες παρουσιάσεις τους και διάβασε ότι γράφουν ή ακόμα καλύτερα στείλε τους ένα μαιλ με όσα πιστεύεις να δούμε τι θα σου απαντήσουν.

Επεξ/σία από prefuse
Δημοσ. (επεξεργασμένο)
13 minutes ago, prefuse said:

Το ότι δεν μπορείς να βρεις το εμφανές λάθος στις παραπάνω εικόνες HDR, SDR αποδεικνύει περίτρανα ότι δεν έχεις καταλάβει ούτε τα βασικά για το HDR. Μήπως θέλεις να πάρουμε την βοήθεια 50/50 του κοινού ή να τηλεφωνήσουμε τον @elpenor ?

Σε ποιες εικόνες αναφέρεστε γιατί προχωράει γρήγορα το thread.... Είναι μπέρδεμα η ιστορία γιατί το HDR ξεκίνησε σαν την δυνατότητα να τραβάς φωτογραφίες με διαφορετικούς χρόνους ώστε να φαίνονται καθαρά και saturated και τα φωτεινά και τα σκοτεινά σημεία (από 6 exposure stops στα 10-20 stops) και να τις ενώνεις σε μία εποχή που οι οθόνες είχαν ξεπεράσει τις φωτογραφικές, μετά μεταφέρθηκε αυτή η τεχνική/τεχνοτροπία και στο video. Τώρα συζητάμε κυρίως για τις οθόνες HDR που μπορούν να δείχνουν 12bit/DCI-P3 και πολλά nits σε PQ transfer "gamma" format και να δείξουν σωστά τα πλάνα από τις νέες κάμερες που μπορούν από μόνες τους record 17 stops (περίπου από 1 μέχρι 16.000 nits).

Οι φωτογραφίες του @pirmen56 στο τελευταίο σχόλιο αφού είναι σε SDR μορφή πως μπορούν να μας πουν κάτι για το HDR;

Επεξ/σία από elpenor
Δημοσ. (επεξεργασμένο)
10 minutes ago, elpenor said:

Σε ποιες εικόνες αναφέρεστε γιατί προχωράει γρήγορα το thread.... Είναι μπέρδεμα η ιστορία γιατί το HDR ξεκίνησε σαν την δυνατότητα να τραβάς φωτογραφίες με διαφορετικούς χρόνους ώστε να φαίνονται καθαρά και saturated και τα φωτεινά και τα σκοτεινά σημεία, μετά μεταφέρθηκε αυτή η τεχνική/τεχνοτροπία και στο video ενώ τώρα συζητάμε κυρίως για τις οθόνες HDR που μπορούν να δείχνουν 12bit/DCI-P3 και πολλά nits σε PQ transfer "gamma" format.

Καλέ μου φίλε elpenor υπάρχουν εξαιρετικά κείμενα, ψάξε διάβασε αυτά που θεωρείς έγκυρα και μετά έλα με χαρά να συζητήσουμε.

Στο τέλος της season one episode 3, θα έχουμε τελικές εξετάσεις με επιτηρητή primen αν θέλει και ο εξωσχολικός akoinonitoς θα μας προτρέπει για κοπάνα.. εγώ θα πάω μαζί του 😛

 

 

 

Επεξ/σία από prefuse
  • Haha 3
Δημοσ.
7 λεπτά πριν, prefuse είπε

Καλέ μου φίλε elpenor υπάρχουν εξαιρετικά κείμενα, ψάξε διάβασε αυτά που θεωρείς έγκυρα και μετά έλα με χαρά να συζητήσουμε.

Στο τέλος της season one episode 3, θα έχουμε τελικές εξετάσεις με επιτηρητή primen αν θέλει και ο εξωσχολικός akoinonitoς θα μας προτρέπει για κοπάνα.. εγώ θα πάω μαζί του 😛

 

 

 

Δεν αφηνετε το hdr να πατε για καμια μπυρα? :P

Δημοσ. (επεξεργασμένο)
3 hours ago, akoinonitos said:

Δεν αφηνετε το hdr να πατε για καμια μπυρα? :P

Spoiler

 

 

 

 

Επεξ/σία από prefuse
  • Thanks 1
  • Haha 1
Δημοσ. (επεξεργασμένο)
1 hour ago, prefuse said:
  Hide contents

 

Πολύ ωραίο table thanks πραγματικά!

Spoiler

Ίσως να είναι λίγο biased, λέει πχ increments of luma at given bit depth ότι είναι καλύτερο το SDR το οποίο είναι σωστό αλλά στην πράξη οι περισσότερες ταινίες που έχω με HDR είναι 12bit (DV) ενώ σχεδόν όλες οι SDR είναι 8bit με εξαίρεση κάτι bluray που είναι 10bit.

Μπορεί να σκεφτεί κάποιος ότι ακόμα και το 12bit HDR με τα 4096 steps έχει μεγαλύτερα steps, γιατί αυτά τα steps έχουν να καλύψουν 1-10.000 nits εύρος ενώ στο 8bit SDR τα 256 step έχουν να καλύψουν μόνο το πολύ 1-250nits όμως στην πράξη επειδή και το PQ και το Gamma του SDR δεν είναι γραμμικά έχουν μεγαλύτερα steps στα φωτεινά σημεία και μικρότερα εκεί που χρειάζεται στα σκοτεινά σημεία και τις σκιές.

Συγκεκριμένα το step στα 10nits (εκεί που είναι ευαίσθητο το μάτι) σε ένα 12bit HDR είναι 0.1nits ενώ στο SDR (200nits max) είναι περίπου 0.5nits. Ακόμα και ένα SDR 10bits θα έχει step 0.18nits.

Άρα πρακτικά στις περισσότερες ταινίες που έχουμε πρόσβαση με το HDR (12bit) θα έχουμε 5 φορές μικρότερα steps από SDR 8bit ή 2.5 φορές μικρότερα steps από SDR 10bit κάτι που δεν το αναφέρει αυτός που έφτιαξε τον πίνακα και συγκρίνει ουτοπικά λες και μπορούμε να βρούμε SDR 12bit.

Κάποια άλλα πράγματα που γράφει δεν μπορώ να τα καταλάβω αλλά θα το κουράσω και άλλο.

 

Επεξ/σία από elpenor
Δημοσ. (επεξεργασμένο)
18 minutes ago, elpenor said:

Πολύ ωραίο table thanks πραγματικά!

Ίσως να είναι λίγο biased, λέει πχ increments of luma at given bit depth ότι είναι καλύτερο το SDR το οποίο είναι σωστό αλλά στην πράξη οι περισσότερες ταινίες που έχω με HDR είναι 12bit (DV) ενώ σχεδόν όλες οι SDR είναι 8bit με εξαίρεση κάτι bluray που είναι 10bit.

Μπορεί να σκεφτεί κάποιος ότι ακόμα και το 12bit HDR με τα 4096 steps έχει μεγαλύτερα steps, γιατί αυτά τα steps έχουν να καλύψουν 1-10.000 nits εύρος ενώ στο 8bit SDR τα 256 step έχουν να καλύψουν μόνο το πολύ 1-250nits όμως στην πράξη επειδή και το PQ και το Gamma του SDR δεν είναι γραμμικά έχουν μεγαλύτερα steps στα φωτεινά σημεία και μικρότερα εκεί που χρειάζεται στα σκοτεινά σημεία και τις σκιές.

Συγκεκριμένα το step στα 10nits (εκεί που είναι ευαίσθητο το μάτι) σε ένα 12bit HDR είναι 0.1nits ενώ στο SDR (200nits max) είναι περίπου 0.5nits. Ακόμα και ένα SDR 10bits θα έχει step 0.18nits.

Άρα πρακτικά στις περισσότερες ταινίες που έχουμε πρόσβαση με το HDR (12bit) θα έχουμε 5 φορές μικρότερα steps από SDR 8bit ή 2.5 φορές μικρότερα steps από SDR 10bit κάτι που δεν το αναφέρει αυτός που έφτιαξε τον πίνακα και συγκρίνει ουτοπικά λες και μπορούμε να βρούμε SDR 12bit.

Κάποια άλλα πράγματα που γράφει δεν μπορώ να τα καταλάβω αλλά θα το κουράσω και άλλο.

Επεξηγούνται όλα και με απλό τρόπο, αν γνωρίζουμε τα βασικά.

Ολα τα παραπάνω θα ίσχυαν αν ειχες 12bit οθόνη... Τα color transformations γίνονται σε 12bit για να αναπαραχθούν με μεγαλύτερη ακρίβεια σε 10bit οθόνη.

Κανένας δεν σε περιορίζει να είναι 10bit SDR είτε τα games είτε το digital library ταινιών.

Τα 10bit είναι το bare minimum για το HDR, ενώ το SDR μπορεί να είναι και 8bit και 10bit.

Επεξ/σία από prefuse
Δημοσ. (επεξεργασμένο)
13 minutes ago, prefuse said:

Επεξηγούνται όλα και με απλό τρόπο, αν γνωρίζουμε τα βασικά.

Ολα τα παραπάνω θα ίσχυαν αν ειχες 12bit οθόνη... Τα color transformations γίνονται σε 12bit για να αναπαραχθούν με μεγαλύτερη ακρίβεια σε 10bit οθόνη.

Κανένας δεν σε περιορίζει να είναι 10bit SDR είτε τα games είτε το digital library ταινιών.

Τα 10bit είναι το bare minimum για το HDR, ενώ το SDR μπορεί να είναι και 8bit και 10bit.

Η LG C2 που βλέπω τις ταινίες μου είναι 12bit και υποθέτω και κάποιες OLED alienware θα είναι αφού έχουν DV certification. Όσο για το 10bit SDR αφορά 20-30 bluray και κάποια μετρημένα παιχνίδια, δεν είναι το συνηθισμένο.

H Xiaomi είναι 8bit+FRC :D

Επεξ/σία από elpenor
Δημοσ. (επεξεργασμένο)
11 hours ago, elpenor said:

Η LG C2 που βλέπω τις ταινίες μου είναι 12bit και υποθέτω και κάποιες OLED alienware θα είναι αφού έχουν DV certification. Όσο για το 10bit SDR αφορά 20-30 bluray και κάποια μετρημένα παιχνίδια, δεν είναι το συνηθισμένο.

H Xiaomi είναι 8bit+FRC :D

Βρε τι λάθη είναι αυτά;

Ούτε στα τελευταία θρανία δεν σωζεσαι.

Σοβαρά πως θεώρησες ότι έχεις 12bit panel επειδή υποστηρίζει Dolby vision;

The LG C2 OLED TV features a 10-bit panel.
While the TV's processing and HDMI inputs may support receiving a 12-bit signal, the native panel itself is 10-bit. This means it can display 1024 shades of red, green, and blue, resulting in over 1.07 billion colors (1024 \times 1024 \times 1024 = 1,073,741,824).
Many consumer displays, including high-end OLEDs like the C2, use 10-bit panels, which is sufficient for displaying the vast majority of HDR content without significant banding or color gradation issues. While 12-bit panels exist in professional mastering displays, they are not common in the consumer market. Even when a 12-bit signal is sent to a 10-bit panel, the TV's internal processing will map that signal down to the panel's 10-bit capability.

 

Επεξ/σία από prefuse

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...