Προς το περιεχόμενο

AMD RX6000 Series (RDNA2/Big Navi)


narta

Προτεινόμενες αναρτήσεις

3 λεπτά πριν, yiannis1991 είπε

Το PS5 εννοείς. Επιδόσεις λίγο πάνω από 5700ΧΤ έχει. Το XBOX έχει 2080S..

Η 3080 512 bus έχει;

ps5/xsx γράφω, το σβήνω όλο και γράφω ps4. Μετά άκουγα στο κεφάλι μου μέσα τον είχο από το restart στα windows xp

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Απαντ. 11,4k
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

24 λεπτά πριν, yiannis1991 είπε

Το PS5 εννοείς. Επιδόσεις λίγο πάνω από 5700ΧΤ έχει. Το XBOX έχει 2080S..

Η 3080 512 bus έχει;

320 (384 cut down) αλλά έχει μνήμες GDDR6X, που είναι “nvidia only” από όσο έχω διαβασει.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

3 λεπτά πριν, Sheogorath είπε

320 (384 cut down) αλλά έχει μνήμες GDDR6X, που είναι “nvidia only” από όσο έχω διαβασει.

Τώρα στην αρχή είναι nvidia only, μόλις γίνει jedec (όπως πολλά στοιχεία της GDDR5X είχαν γίνει JEDEC στην GDDR6) θα μπορούν να την χρησιμοποιούν όλοι. Για το RDNA2 σίγουρα δε μπορεί να παίξει με GDDR6X

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

27 λεπτά πριν, yiannis1991 είπε

Με 352-bit bus όπως η 2080Ti και 16GB δεν θα φτάνει το bandwidth για το big navi;

Δεν χωρίζει (εύκολα) τα 352 (384) για 16 γίγα. Και μάλλον όχι, δεν αρκεί μιάμιση φορά bandwith για δυο φορές το shading power σε σχέση με 5700xt, όταν ήδη αυτό ήταν πνιγμένο.

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
1 ώρα πριν, sir ImPeCaBlE είπε

Στο παρελθόν πάντως HBM δεν είχε μπει γιατί δεν έφτανε το bandwidth για gaming χρήση. Είχε μπει για να περιοριστεί η κατανάλωση και γιατί το χρειάζονταν άλλες αγορές. Επίσης ανεβάζει το κόστος κατασκευής. Οπότε αν είσαι gamer, imo, δεν είναι ευχάριστη εξέλιξη.

Όχι απόλυτα ακριβές.

Είχε μπει ΚΑΙ για να περιορίσει την κατανάλωση της κάρτας.

Για να υπάρξει αντίστοιχο ποσό mem bandwidth με GDDR5 για να ταΐσει την πεινασμένη GCN θα έπρεπε να μπει memory interface μεγαλύτερο από 512-bit.

Οι R9 390(X) με τον 512-bit και τις 6Gbps μνήμες έφταναν τα 384GB/s, αρκετά κάτω από τα 512GB/s της Fury.

Αν μπορούσε (λέμε τώρα) να υλοποιηθεί μεγαλύτερο mem bus των 512-bit θα ανέβαζε το κόστος του RnD, το κόστος του PCB στην υλοποίηση (ίσως ξεπερνώντας αυτό για HBM) όπως και το μέγεθος της GPU και του board γενικότερα.

Επίσης θα απαιτούσε πολύ μεγαλύτερο αριθμό RAM chips (50% - 100% πάνω ανάλογα με τι το συγκρίνουμε) με άλλες παρενέργειες αυτό...

Επεξ/σία από kkatzos
  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 ώρα πριν, yiannis1991 είπε

Το PS5 εννοείς. Επιδόσεις λίγο πάνω από 5700ΧΤ έχει. Το XBOX έχει 2080S..

Η 3080 512 bus έχει;

Off topic μιας και δε πήρα 3080 λόγω καμιά 10αρια exclusives που θέλω πρώτα να τερματίσω στο PS5 (από το PS4 πολλά από αυτά) 

Τόσο χάλια το PS5 σε σχέση με το XBOX? 

Γιατί 2080S με καλό optimization χτυπάει 4k/60. Η 5700XT πώς θα βγάζει 4K/60 που διαφημίζει πχ στο DMC 5 η Sony? 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

9 λεπτά πριν, kkatzos είπε

Όχι απόλυτα ακριβές.

Είχε μπει ΚΑΙ για να περιορίσει την κατανάλωση της κάρτας.

Για να υπάρξει αντίστοιχο ποσό mem bandwidth με GDDR5 για να ταΐσει την πεινασμένη GCN θα έπρεπε να μπει memory interface μεγαλύτερο από 512-bit.

Οι R9 390(X) με τον 512-bit και τις 6Gbps μνήμες έφταναν τα 384GB/s, αρκετά κάτω από τα 512GB/s της Fury.

Αν μπορούσε (λέμε τώρα) να υλοποιηθεί μεγαλύτερο mem bus των 512-bit θα ανέβαζε το κόστος του RnD, το κόστος του PCB στην υλοποίηση (ίσως ξεπερνώντας αυτό για HBM) όπως και το μέγεθος της GPU και του board γενικότερα.

Επίσης θα απαιτούσε πολύ μεγαλύτερο αριθμό RAM chips (50% - 100% πάνω ανάλογα με τι το συγκρίνουμε) με άλλες παρενέργειες αυτό...

Σου λέω ότι δεν υπήρχε ανάγκη για 512GB/s bandwidth για gaming και μου απαντάς δεν υπήρχε άλλος τρόπος να έχει 512GB/s bandwidth. Go figure.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

13 λεπτά πριν, DeareN είπε

Off topic μιας και δε πήρα 3080 λόγω καμιά 10αρια exclusives που θέλω πρώτα να τερματίσω στο PS5 (από το PS4 πολλά από αυτά) 

Τόσο χάλια το PS5 σε σχέση με το XBOX? 

Γιατί 2080S με καλό optimization χτυπάει 4k/60. Η 5700XT πώς θα βγάζει 4K/60 που διαφημίζει πχ στο DMC 5 η Sony? 

Λίγο καλύτερα από 5700ΧΤ. Θα βγάζει στα εύκολα παιχνίδια. Στα τούμπανα γραφικά θα κάνει scaling προς τα κάτω και reconstruction ή "optimization" που στην ουσία σημαίνει απλά κόβω settings, δεν κάνουν κάποια μαγική τελετή στην πανσέληνο για να ανέβουν τα fps :P Εδώ δεν μπορεί η 2080Ti να κρατήσει 4Κ/60 παντού θα μπορούν οι κονσόλες που έχουν λιγότερη δύναμη. Σίγουρα βοηθάει το code to the metal αλλά πόσο; Για παιχνίδια με σοβαρά visuals, το τονίζω..

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 λεπτά πριν, yiannis1991 είπε

Λίγο καλύτερα από 5700ΧΤ. Θα βγάζει στα εύκολα παιχνίδια. Στα τούμπανα γραφικά θα κάνει scaling προς τα κάτω και reconstruction ή "optimization" που στην ουσία σημαίνει απλά κόβω settings, δεν κάνουν κάποια μαγική τελετή στην πανσέληνο για να ανέβουν τα fps :P Εδώ δεν μπορεί η 2080Ti να κρατήσει 4Κ/60 παντού θα μπορούν οι κονσόλες που έχουν λιγότερη δύναμη. Σίγουρα βοηθάει το code to the metal αλλά πόσο; Για παιχνίδια με σοβαρά visuals, το τονίζω..

16gb vram και i/o storage θα βοηθάνε με μεγαλύτερη ανάλυση textures και ελαχιστοποίηση texture popping/ draw distance + motion blur/ και το τελευταίο τραγικό στα games, dithering transparency. Ναι μεν το μάτι δεν το προσέχει 90% των περιπτώσεων, αλλά αν πας από το pc σε κονσόλα μια φορά τον χρόνο είσαι σαν τον παρασκευά όταν μπαίνει στο studio

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
18 λεπτά πριν, Sakiz105 είπε

16gb vram και i/o storage θα βοηθάνε με μεγαλύτερη ανάλυση textures και ελαχιστοποίηση texture popping/ draw distance + motion blur/ και το τελευταίο τραγικό στα games, dithering transparency. Ναι μεν το μάτι δεν το προσέχει 90% των περιπτώσεων, αλλά αν πας από το pc σε κονσόλα μια φορά τον χρόνο είσαι σαν τον παρασκευά όταν μπαίνει στο studio

Νομίζω τα 16GB είναι total system memory όχι μόνο για την gpu, correct me if I am wrong..
Στο DF αν θυμάμαι καλά, είπαν ότι το πιο γρήγορο Ι/Ο δεν βοηθάει με το lod/texture popping..

Επεξ/σία από Επισκέπτης
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, yiannis1991 είπε

Νομίζω τα 16GB είναι total system memory όχι μόνο για την gpu, correct me if I am wrong..

σε ps4/xbone είχαν 8 και έκαναν αρχικά εως 4,5 allocate στην vram και αργότερα έφτασαν μέχρι και 6. 

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
1 ώρα πριν, sir ImPeCaBlE είπε

Σου λέω ότι δεν υπήρχε ανάγκη για 512GB/s bandwidth για gaming και μου απαντάς δεν υπήρχε άλλος τρόπος να έχει 512GB/s bandwidth. Go figure.

Αυτό τώρα πως το συμπεραίνεις;

Έχεις κάπου τα performance figures των διαφόρων γενεών GCN σε συνάρτηση με το mem bandwidth;

Ή κρίνεις με Nvidia λογική;

Spoiler

 

Σε διαψεύδει η Radeon VII (πρακτικά ίδια αρχιτεκτονική με τη Fury) με το 1TB/s. Με overclock στη μνήμη, ακόμα και κρατώντας τον πυρήνα στοκ, παίρνει αρκετά. Κάνε βόλτα στο αντίστοιχο thread να δεις τι λένε.

R9 290X vs R9 390: Σε παιχνίδια που δεν πλησιάζουν τα όρια του VRAM capacity είναι ταχύτερη η δεύτερη παρόλο που έχει 256 λιγότερα shaders ενώ έχουν ακριβώς ίδιο clock freq. Η διαφορά οφείλεται βέβαια στο αυξημένο mem bandwidth.

Η Fury που είχε 1000 shaders παραπάνω εννοείται ότι αξιοποιούσε και το τελευταίο GB/s που της δίνονταν...

 

 

Επεξ/σία από kkatzos
  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

12 λεπτά πριν, kkatzos είπε

Αυτό τώρα πως το συμπεραίνεις;

Έχεις κάπου τα performance figures των διαφόρων γενεών GCN σε συνάρτηση με το mem bandwidth;

Ή κρίνεις με Nvidia λογική;

  Απόκρυψη περιεχομένων

Σε διαψεύδει η Radeon VII (πρακτικά ίδια αρχιτεκτονική με τη Fury) με το 1TB/s. Με overclock στη μνήμη, ακόμα και κρατώντας τον πυρήνα στοκ, παίρνει αρκετά. Κάνε βόλτα στο αντίστοιχο thread να δεις τι λένε.

R9 290X vs R9 390: Σε παιχνίδια που δεν πλησιάζουν τα όρια του VRAM capacity είναι ταχύτερη η δεύτερη παρόλο που έχει 256 λιγότερα shaders ενώ έχουν ακριβώς ίδιο clock freq. Η διαφορά οφείλεται βέβαια στο αυξημένο mem bandwidth.

Η Fury που είχε 1000 shaders παραπάνω εννοείται ότι αξιοποιούσε και το τελευταίο GB/s που της δίνονταν...

Συνεχίζεις να μου δείχνεις compute πυρήνες με μεγάλο bandwidth για να μου πεις ότι οι compute πυρήνες θέλουν μεγάλο bandwidth. Πραγματικά δε καταλαβαίνω πως βγάζεις συμπεράσματα από αυτά που γράφεις. Τέσπα βαριέμαι να επιχειρηματολογήσω για τα αυτονόητα. Βγάλε ότι συμπέρασμα θες:

Radeon R9 380X  GCN 3rd gen 2048:128:32 182.4GB/s

Radeon R9 Fury X GCN 3rd gen 4096:256:64 512GB/s

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

32 λεπτά πριν, sir ImPeCaBlE είπε

Βγάλε ότι συμπέρασμα θες:

Radeon R9 380X  GCN 3rd gen 2048:128:32 182.4GB/s

Radeon R9 Fury X GCN 3rd gen 4096:256:64 512GB/s

Πραγματικά δεν μπορώ να καταλάβω το συλλογισμό σου. Θες να πεις ότι δεν υπάρχει γραμμικότητα; Αυτονόητο.

Σύμφωνα με techpowerup:

64% ταχύτερη η Fury X ενώ έχει σχεδόν τριπλάσιο bandwidth.

60% η 2080Ti από την 2060 με σχεδόν διπλάσιο.

άρα;

Αυτό σημαίνει ότι το "παραπάνω" bandwidth στη Fury έμεινε αναξιοποίητο; Γιατί, πιστεύω, αυτό σημαίνει το "όχι γιατί δεν έφτανε" στο αρχικό σου post.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...