Προς το περιεχόμενο

AMD RX6000 Series (RDNA2/Big Navi)


narta

Προτεινόμενες αναρτήσεις

Δημοσ. (επεξεργασμένο)

To warzone δεν ειναι παραδειγμα χρησης vram και 1440p παλι 15.5gb τραβαει με 6800xt/6900xt, λογικα σε 3090 μπορει να τραβαει και 23GB ικανους τους εχω.

Γενικα παντως 6700xt/6800xt/6900xt λογο πιο light η και ανυπαρκτου compression παρουσιαζουν μια εικονα σε πολλα games οτι τα 8gb vram δεν φτανουν, ουτε για 2560x1440p, παραδειγμα χτυπητο, ουτε καν σε 1440p, control 1440p output / 1080p rendering και στις 2 περιπτωσεις, 9.7gb η 6800xt, 6.3gb η 3080ti.

6800xt

2021_04.01-23_37.jpg.60d52bced3ddf9343a4c350e0186e270.jpg

3080ti

42032035_ControlScreenshot2021_07.27-14_18_06_59.jpg.a35dd793330bc7428d561bae4b67cb58.jpg

 

Επεξ/σία από Razor333
  • Like 4
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης
17 ώρες πριν, 7nisiotis είπε

Ναι, 3070 με κουτση 8αρα μνήμη. Σε 6800 απλή ή 6800ΧΤ θα πάω + Dell s2721DGFA ( εκτός και παίξει τρελή προσφορά σε καποιο άλλο μονιτορ μέχρι τον Σεπτέμβριο αλλά προς το παρόν στα χρήματα του είναι η καλύτερη επιλογή ) 

Εξάλλου το χα γράψει, 3070 θα ήταν προσωρινή επειδή δεν έβρισκα τότε τίποτα αλλο.

νομίζω θα κάνεις λάθος , πρέπει να πάρεις Dell S3220DGF Curved Gaming Monitor 31.5" QHD 165Hz ,

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
1 hour ago, Razor333 said:

To warzone δεν ειναι παραδειγμα χρησης vram και 1440p παλι 15.5gb τραβαει με 6800xt/6900xt, λογικα σε 3090 μπορει να τραβαει και 23GB ικανους τους εχω.

Το Warzone είναι ρυθμισμένο να κάνει pre-allocate μεγάλο ποσοστό της VRAM (>85%). Όλα τα παιχνίδια DX12 + Vulcan χρειάζονται manual τρόπους διαχείρησης της VRAM καθως δεν γίνεται αυτόματα όπως στα προηγούμενα DirectX αλλά π.χ η AMD σου παρέχει βιβλιοθήκες [DX12] - [Vulkan] για να το κάνει το game πιο optimal. Ταυτόχρονα η AMD δίνει recommendation η συνολική χρήση της VRAM σε Navi να μην ξεπερνάει το 80% - οπότε καλά κρασιά. Γιαυτό με μια απλή ρύθμιση στο Warzone φτιάνουν μαγικά τα προβλήματα. Σίγουρα με πιο λογικές ρυθμίσεις η πραγματική ανάγκη για VRAM πέφτει αρκετά πιο κάτω.

Επεξ/σία από Luciddream
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

24 λεπτά πριν, Molpadia είπε

νομίζω θα κάνεις λάθος , πρέπει να πάρεις Dell S3220DGF Curved Gaming Monitor 31.5" QHD 165Hz ,

Δεν είναι χαμηλό το ppi 1440p σε 32αρα? Εφόσον παίζει competitive παντως εννοείται να πάει σε πολλά hertz οθόνη θα πιάσουν τόπο σε multi-player. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 ώρες πριν, Razor333 είπε

To warzone δεν ειναι παραδειγμα χρησης vram και 1440p παλι 15.5gb τραβαει με 6800xt/6900xt, λογικα σε 3090 μπορει να τραβαει και 23GB ικανους τους εχω.

Γενικα παντως 6700xt/6800xt/6900xt λογο πιο light η και ανυπαρκτου compression παρουσιαζουν μια εικονα σε πολλα games οτι τα 8gb vram δεν φτανουν, ουτε για 2560x1440p, παραδειγμα χτυπητο, ουτε καν σε 1440p, control 1440p output / 1080p rendering και στις 2 περιπτωσεις, 9.7gb η 6800xt, 6.3gb η 3080ti.

6800xt

2021_04.01-23_37.jpg.60d52bced3ddf9343a4c350e0186e270.jpg

3080ti

42032035_ControlScreenshot2021_07.27-14_18_06_59.jpg.a35dd793330bc7428d561bae4b67cb58.jpg

 

Επειδη η 6800xt εχει παραπανω vram γινεται και περισσοτερη allocated. Και με την 3090 παραπανω θα εβλεπες. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 ώρες πριν, Razor333 είπε

 

Γενικα παντως 6700xt/6800xt/6900xt λογο πιο light η και ανυπαρκτου compression παρουσιαζουν μια εικονα σε πολλα games οτι τα 8gb vram δεν φτανουν, ουτε για 2560x1440p, παραδειγμα χτυπητο, ουτε καν σε 1440p, control 1440p output / 1080p rendering και στις 2 περιπτωσεις, 9.7gb η 6800xt, 6.3gb η 3080ti.

Πρώτον, το memory compression έχει να κάνει με το Memory Bandwidth και όχι με το Memory Buffer/Allocation.

Δεύτερον, η RDNA/2  έχουν για memory compression  το DCC (Delta Color Compression)

RDNA 

big_navi-cache.jpg

big_navi-cache-2.jpg

 

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 ώρες πριν, Molpadia είπε

νομίζω θα κάνεις λάθος , πρέπει να πάρεις Dell S3220DGF Curved Gaming Monitor 31.5" QHD 165Hz ,

Αυτή έχω και είναι καταπληκτική οθόνη για τα χρήματα της αλλά πλέον νομίζω ότι τα νέα μοντέλα έχουν ανεβάσει το επίπεδο του ανταγωνισμού.

 

Κι εγώ υπέρ της ultrawide είμαι όπως λέει και ο @Arkin αλλά πιστεύω ακράδαντα ότι το μέλλον είναι οι oled και όσο και να με ξενερώνει το 16:9, νομίζω ότι η διαφορά στην ποιότητα εικόνας μεταξύ μιας cx 48αραε ας πούμε και ενός άλλου monitor, οποίου θέλετε, ακόμη και σε μεγαλύτερο budget όπως τα 2χιλιαρα της Asus, είναι χαοτική και αυτό λόγω τεχνολογίας που απλά ένα monitor δε μπορεί να αποδώσει είτε είναι ips είτε όχι.

Βέβαια αυτό προϋποθέτει RTX 3080 ως ελάχιστη επιλογή κάρτας αλλά νομίζω ότι το αποτέλεσμα αποζημιώνει.

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 λεπτό πριν, Armoral είπε

Αυτή έχω και είναι καταπληκτική οθόνη για τα χρήματα της αλλά πλέον νομίζω ότι τα νέα μοντέλα έχουν ανεβάσει το επίπεδο του ανταγωνισμού.

 

Κι εγώ υπέρ της ultrawide είμαι όπως λέει και ο @Arkin αλλά πιστεύω ακράδαντα ότι το μέλλον είναι οι oled και όσο και να με ξενερώνει το 16:9, νομίζω ότι η διαφορά στην ποιότητα εικόνας μεταξύ μιας cx 48αραε ας πούμε και ενός άλλου monitor, οποίου θέλετε, ακόμη και σε μεγαλύτερο budget όπως τα 2χιλιαρα της Asus, είναι χαοτική και αυτό λόγω τεχνολογίας που απλά ένα monitor δε μπορεί να αποδώσει είτε είναι ips είτε όχι.

Βέβαια αυτό προϋποθέτει RTX 3080 ως ελάχιστη επιλογή κάρτας αλλά νομίζω ότι το αποτέλεσμα αποζημιώνει.

 

Αλλο gaming κανεις ομως σε τηλεοραση και αλλο σε monitor. Σε 55αρα επαιζα χρονια αλλα δεν στο monitor σαν να κολλαω περισσοτερο πολυ πιο αμεση διαδραση πολυ καλυτερο επιπεδο παιχνιδιου. Προφανως το καλυτερο θα ηταν oled monitor αλλα δεν βλεπω να βγαζουν συντομα. Τα oled panels παντως γινονται αψογα ultrawide με custom resolutions λογο απειρης αντιθεσης κλεινουν τα pixels πανω κατω και δεν καταλαβαινεις καν οτι βλεπεις ultrawide σε 16:9 τηλεοραση. 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

23 ώρες πριν, 7nisiotis είπε

Μας έβαλε φωτιές ο @Arkin με τα τεστακια του. Και επειδή δε πρόκειται να αλλάξω αυτή τη φορά κάρτα τόσο συχνά όσο τα τελευταία 2 χρόνια ας πάμε σε κάτι με μπόλικη ραμ μην έχουμε φαινόμενο GTX 770 πάλι με την οριακή μνήμη. 

 

Δεν ισχύει. Ούτε με 5700xt έχεις πρόβλημα ούτε με 3070 η 3070ti.

Οπωσδήποτε η επιπλέον μνήμη είναι ένα συν αλλά στα 1440p δε χρειάζεσαι τίποτα.

Αν και κάτοχος amd πολλά χρόνια και αν και μετά από κακή εμπειρία με Gigabyte 3070 gaming oc που μου έβγαλε την πίστη στις μπλε οθόνες, μπορώ να πω ότι η trinity 3070ti που αγόρασα πρόσφατα από πλαίσιο είναι η καλύτερη κάρτα γραφικών που είχα ποτέ με τεράστια διαφορά και ότι πιο vfm στη σημερινή αγορά για την QHD αναλυση.

Στα 800 ευρώ έχει την καλύτερη απόδοση που έχουμε δει ποτέ σε αυτά τα χρήματα.

Κυριολεκτικά δεν κολλάει πουθενά και αν υποθέσουμε ότι μια 3080 έχει τουλάχιστον 400 με 500 ευρώ διαφορά δεν ξέρω αν αυτή τη διαφορά τη δεις η αν αξίζει στα 1440p.

Όπως έχω πει χωρίς να μειώνω καθόλου του intel ειδικά της σειράς 10, το δίπτυχο 5800x με 3070ti αν τη βρεις σε καλή τιμή είναι ο ιδανικός για gaming και γενική χρήση με απαιτήσεις.

8 λεπτά πριν, Arkin είπε

Αλλο gaming κανεις ομως σε τηλεοραση και αλλο σε monitor. Σε 55αρα επαιζα χρονια αλλα δεν στο monitor σαν να κολλαω περισσοτερο πολυ πιο αμεση διαδραση πολυ καλυτερο επιπεδο παιχνιδιου. Προφανως το καλυτερο θα ηταν oled monitor αλλα δεν βλεπω να βγαζουν συντομα. Τα oled panels παντως γινονται αψογα ultrawide με custom resolutions λογο απειρης αντιθεσης κλεινουν τα pixels πανω κατω και δεν καταλαβαινεις καν οτι βλεπεις ultrawide σε 16:9 τηλεοραση. 

55αρα ναι μεν αλλά oled? Ακόμη και οι qled έχουν διαφορά από υλοποίηση σε υλοποίηση.

Η δυνατότητα να χειρίζονται το κάθε pixel ξεχωριστά είναι αυτή που μας δίνει το τέλειο αποτέλεσμα.

Γενικά τικαρει όλες τις απαιτήσεις σαν οθόνη, αλλά το μέγεθος όντως είναι μεγάλο.

Και συμφωνώ ότι το 21:9 η το 32:9 είναι πολύ καλύτερα φορμάτ για gaming και productivity πάντως, συμφωνώ.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 λεπτά πριν, Armoral είπε

Δεν ισχύει. Ούτε με 5700xt έχεις πρόβλημα ούτε με 3070 η 3070ti.

Οπωσδήποτε η επιπλέον μνήμη είναι ένα συν αλλά στα 1440p δε χρειάζεσαι τίποτα.

Αν και κάτοχος amd πολλά χρόνια και αν και μετά από κακή εμπειρία με Gigabyte 3070 gaming oc που μου έβγαλε την πίστη στις μπλε οθόνες, μπορώ να πω ότι η trinity 3070ti που αγόρασα πρόσφατα από πλαίσιο είναι η καλύτερη κάρτα γραφικών που είχα ποτέ με τεράστια διαφορά και ότι πιο vfm στη σημερινή αγορά για την QHD αναλυση.

Στα 800 ευρώ έχει την καλύτερη απόδοση που έχουμε δει ποτέ σε αυτά τα χρήματα.

Κυριολεκτικά δεν κολλάει πουθενά και αν υποθέσουμε ότι μια 3080 έχει τουλάχιστον 400 με 500 ευρώ διαφορά δεν ξέρω αν αυτή τη διαφορά τη δεις η αν αξίζει στα 1440p.

Όπως έχω πει χωρίς να μειώνω καθόλου του intel ειδικά της σειράς 10, το δίπτυχο 5800x με 3070ti αν τη βρεις σε καλή τιμή είναι ο ιδανικός για gaming και γενική χρήση με απαιτήσεις.

55αρα ναι μεν αλλά oled? Ακόμη και οι qled έχουν διαφορά από υλοποίηση σε υλοποίηση.

Η δυνατότητα να χειρίζονται το κάθε pixel ξεχωριστά είναι αυτή που μας δίνει το τέλειο αποτέλεσμα.

Γενικά τικαρει όλες τις απαιτήσεις σαν οθόνη, αλλά το μέγεθος όντως είναι μεγάλο.

Και συμφωνώ ότι το 21:9 η το 32:9 είναι πολύ καλύτερα φορμάτ για gaming και productivity πάντως, συμφωνώ.

LED τηλεοραση των 1300 ευρω πριν κατι χρονια μολις πηρα το 29αρι το απλο το 2018 δεν την ξανα ακουμπησα για gaming. Οπως και δεν ξανα ακουμπησα χειριστηριο εχω xbox one controller και δεν μπορω πια να παιξω μου φαινεται απιστευτα αργο νιωθω κουλος ειδικα σε παιχνιδια που θελουν στοχευση μιας και δεν παιζω ποτε με aim assist. Ειναι τελειες οι oled αλλα δεν θα προτιμουσες ενα 38αρι 21:9 monitor η ακομα και 32:9 για οσους εχουν τον χωρο απο οτι μια 48αρα? Και η 48αρα τιμια αλλα σε τι αποσταση να την βαλεις? Στο μετρο νομιζω ειμαι απο την 34αρα και δεν θελω κατι παραπανω μονο αν βγει oled θα την αλλαξω μεχρι το 1000αρικο. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

6 λεπτά πριν, Arkin είπε

LED τηλεοραση των 1300 ευρω πριν κατι χρονια μολις πηρα το 29αρι το απλο το 2018 δεν την ξανα ακουμπησα για gaming. Οπως και δεν ξανα ακουμπησα χειριστηριο εχω xbox one controller και δεν μπορω πια να παιξω μου φαινεται απιστευτα αργο νιωθω κουλος ειδικα σε παιχνιδια που θελουν στοχευση μιας και δεν παιζω ποτε με aim assist. Ειναι τελειες οι oled αλλα δεν θα προτιμουσες ενα 38αρι 21:9 monitor η ακομα και 32:9 για οσους εχουν τον χωρο απο οτι μια 48αρα? Και η 48αρα τιμια αλλα σε τι αποσταση να την βαλεις? Στο μετρο νομιζω ειμαι απο την 34αρα και δεν θελω κατι παραπανω μονο αν βγει oled θα την αλλαξω μεχρι το 1000αρικο. 

Συμφωνώ για τις ultrawide, άλλωστε είναι το αγαπημένο μου φορμάτ με διαφορά και ο μόνος λόγος που είναι με την 16:9 ειναι επειδή ήθελα το 10bit (8bit + frc) panel και τα 165 hz.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Μπούρδες η αποδοτικότερη χρήση VRAM. Παραμύθια από τα πολύ παλιά.

Βιντεάκια υπάρχουν πολλά. -1 έως 10% η διαφορά υπέρ Nvidia υπό φυσιολογικές συνθήκες (μπορεί να υπάρχουν και εξαιρέσεις) σε όσα είδα.

Εδώ 2-3% η Nvidia με περίεργη εξαίρεση το HZD.

ενώ εδώ καλύτερα 1-2% τα πάει  η AMD.

Μπούρδες δηλαδή...

Επεξ/σία από kkatzos
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

7 ώρες πριν, Razor333 είπε

To warzone δεν ειναι παραδειγμα χρησης vram και 1440p παλι 15.5gb τραβαει με 6800xt/6900xt, λογικα σε 3090 μπορει να τραβαει και 23GB ικανους τους εχω.

Γενικα παντως 6700xt/6800xt/6900xt λογο πιο light η και ανυπαρκτου compression παρουσιαζουν μια εικονα σε πολλα games οτι τα 8gb vram δεν φτανουν, ουτε για 2560x1440p, παραδειγμα χτυπητο, ουτε καν σε 1440p, control 1440p output / 1080p rendering και στις 2 περιπτωσεις, 9.7gb η 6800xt, 6.3gb η 3080ti.

6800xt

2021_04.01-23_37.jpg.60d52bced3ddf9343a4c350e0186e270.jpg

3080ti

42032035_ControlScreenshot2021_07.27-14_18_06_59.jpg.a35dd793330bc7428d561bae4b67cb58.jpg

 

RX6800XT 290wat VS 390wat 3080ti για ενα 10% βγαζει ματι μπορεις να το καταλαβεις καλα το καλοκαιρι δυο μερες κρατησα την 3080ti ευτυχως βρηκα και την εδωσα 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

33 λεπτά πριν, kkatzos είπε

Μπούρδες η αποδοτικότερη χρήση VRAM. Παραμύθια από τα πολύ παλιά.

Βιντεάκια υπάρχουν πολλά. -1 έως 10% η διαφορά υπέρ Nvidia υπό φυσιολογικές συνθήκες (μπορεί να υπάρχουν και εξαιρέσεις) σε όσα είδα.

Εδώ 2-3% η Nvidia με περίεργη εξαίρεση το HZD.

ενώ εδώ καλύτερα 1-2% τα πάει  η AMD.

Μπούρδες δηλαδή...

Στα βιντεο αυτα νομιζω πρεπει να δειχνει την allocated vram που οντως στο horizon δεσμευει 11gb vram για πλακα. Real use μεχρι 9 ειδα στα 3440x1440. Δεν θυμαμαι με την 5700xt ποσο real ειχε δεν το κοιτουσα αλλα stutters δεν ειχα.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...