Προς το περιεχόμενο

Με το M1 Ultra, η Apple θέλει να ξεπεράσει σε απόδοση την GeForce RTX 3090 της Nvidia


polemikos

Προτεινόμενες αναρτήσεις

  • Απαντ. 88
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

2 ώρες πριν, SabotazNic είπε

Εχει ηδη γραφτει, αλλα θελει να το ξεπερασει σε αποδοση (δυναμη/watt), και οχι επιδοση (μεγιστη δυναμη)

Αν καταφερεις να παιξεις games, τα λεμε. (και οχι, δεν ειναι μονο θεμα λειτουργικου)

Δηλαδή το NVidia DGX που δεν παίζει παιχνίδια πρέπει να είναι για τον ... έτσι; Μα τι διαβάζουμε; Δεν είναι όλα πρόκες και συγκρίνουμε σφυριά

3 ώρες πριν, TaxiarhisGR είπε

Dual boot και βαζεις και WIndows μεσα αυτο εχω κανει εγω στο mac

- Δεν τρέχουν native x86 Windows σε M1. Τρέχουν ARM Windows σε κλασσικούς ARM (αργούς επεξεργαστές). Είναι της πλάκας, η MS όμως δουλεύει πυρετωδώς για να τα φτιάξει, και θα τα φτιάξει.

- Δεν τρέχουν x86 παιχνίδια σε ARM επεξεργαστές σε ARM Windows. Για να παίξει ένα σημερινό παιχνίδι σε αυριανά ARM Windows θα χρειαστεί μια αντίστοιχη ροσέτα, νομίζω το όνομα της θα είναι GLWT (GOOD LUCK WITH THAT)

- Τρέχουν x86 παιχνίδια σε M1 μέσω emulation, το αστείο είναι ότι παίζει καλύτερα από ότι ΘΑ παίζουν σε ARM Windows με το GLWT.

- Αν θέλεις να παίξεις παιχνίδια, μείνε με x86 windows, δε σε σώζει ούτε ο M1, ούτε τα ARM Windows.

7 ώρες πριν, Dhmosios_Ypalilos είπε

Τι να το κανεις αν δεν μπορεις να τρεξεις unreal engine κ γενικα οτι προγραμμα θελεις, σαν να λεμε το πιο γρηγορο μηχανημα για content creators aka ψωνια του τικ τοκ κ του Instagram

Ε μα! Είπα κι εγώ του αφεντικού να πάρουμε ένα καλύτερο μηχάνημα για τον Jenkins και μου είπε αυτό ακριβώς. Με έβαλε στη θέση μου. Τρέχουμε Unreal Engine μου λέει; Έχουμε στο backend UE? E? ε?

7 ώρες πριν, shadowlike είπε

όταν θα μου βάλουν  δίπλα δίπλα το pc με την 3090 και το mac να τρέχουν cyberpunk με full τα πάντα , θα αποφασίσω.

Αν δεν τα στήσεις παραλιακή/λιμανάκια δε θα βγάλεις ασφαλή συμπέρασμα :)

Νομίζω!

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

9 ώρες πριν, tsarouc είπε

Να είστε καλά ρε παιδιά γέλασα με την ψυχή μου. Μου φτιάξατε την Κυριακή. 

Από την άλλη κρίμα γιατί πλέον η Apple το έχει τραβήξει το σχοινί πάρα πολύ και θα την πατήσει πολύς κόσμος με τόσες διαφιμήσεις. Πάντα την παταγε πολύς κόσμος με την Apple αλλά αυτή τη φορά το παράκανε. Σου λέει έχουμε τίποτε να χάσουμε? Φήμη σίγουρα όχι. Χρήμα? Χλωμό το βλέπω. Θα το πάρει πολύς κόσμος με όλα αυτά που διαβάζει. Και είναι πολύ μεγάλη η απάτη και κανείς δεν κάνει τίποτε για αυτό...

Δεν διαβάζω καν το άρθρο παρά μόνο απευθύνομαι στον τίτλο όπως στους αμέτρητους τίτλους που έχουν κατακλήσει το δίκτυο. Κανείς δεν διαβάζει με προσοχή να είστε σίγουροι. Όλοι στις επικεφαλίδες μένουν και εκεί είναι η μεγάλη πίκρα. 

Ναι αλλά ποιος το προσέχει αυτό μου λες? Εδώ σε θέλω. Αυτό που θα μείνει στους φουκαράδες άσχετους που θα τρέξουν να σκάσουν τόσα χρήματα αυτό μένει στο μυαλό τους. Ότι έχουν 3090 ....

Ωστόσο δεν ειναι και τοσο διαφημιση, γιατι οντως ειναι πολυ δυνατος ο M1 Και οι αποδοσεις που δινει

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

6 ώρες πριν, teodoreh είπε

Κατά βάση, o Fat Agnus, σχεδιασμού δεκαετίας '80 και με 21.000 τρανσίστορ, είναι πιο γρήγορος σε κάποιες εργασίες (π.χ. να βγάζει gradient fields με τον copper) από την RTX3090 - αλλά δεν βγήκε η Amiga Inc. να βγάλει πίνακες και ανακοινώσεις! :D

Λεγόταν copper (Co-Processor), o M1 έχει πάνω από 12 συνεπεξεργαστές. Και όχι ο copper δεν είναι πιο γρήγορος από.... τίποτα. Είναι αστείο όλο το παραπάνω και σαν τέτοιο ελπίζω να το έλεγες.

6 ώρες πριν, teodoreh είπε

Η Apple κατεφεύγει και πάλι σε βλακώδεις συγκρίσεις για το marketing και τα fanboys. Προφανώς οι μηχανικοί της, από τη στιγμή που έχουν την ελευθερία να σχεδιάσουν το hardware τους όπως αυτοί θέλουν, μπορούν λ.χ. όπως συμβαίνει με το DirectX και το OpenGL, να ενσωματώσουν τόσο στο λειτουργικό τους σύστημα όσο και στο hardware τους, βιβλιοθήκη με 150 εντολές που θα επιταχύνουν δραματικά εργασίες σε photoshop και συναφή προγράμματα. H Adobe και οι λοιποί δεν είναι χαζοί να μην ενσωματώσουν το acceleration στα προοιόντα τους και *μπαμπ* θαύμα, είναι γρηγορότεροι - σε κάποιες εργασίες - από την RTX3090. Μια άλλη απλή τεχνική για να παραποιήσουν την πραγματικότητα, θα ήταν να χρησιμοποιήσουν στις μετρήσεις τους, τεράστιο όγκο δεδομένων που δεν θα χωράει στα 24GB VRAM, οπότε μπαμ, bottleneck! Γενικά αν θέλεις να μαγειρέψεις, τρόποι υπάρχουν. Η Apple, ότι έκανε με την σύγκριση με τον  Core i7 όταν έβγαλε το αρχικό m1 chip, το ίδιο κάνει και τώρα.

 

 

Οι μετρήσεις που έκαναν προφανώς έγιναν σε σε τέτοιο τρόπο που να βολεύουν, έτσι γίνεται με κάθε εταιρία.

Η RTX3090 είναι πολύ γρήγορη, πολύ ενεργοβόρα, με πολλά transistors και τεράστια συστήματα ψύξης. Ο Ultra πατάει στο γεγονός ότι για να κάνει κάτι μια DGPU πρέπει να κάνεις πρώτα copy στην video ram, κάτι που δεν υφίσταται στη unified memory. Φαντάσου το σαν κόντρα αυτοκινήτων, η NVidia να πρέπει να αλλάζει ταχύτητες ενώ ο ultra έχει μια μόνο ταχύτητα. Σε κάθε "αλλαγή" χάνει λίγο και μετά επανέρχεται. Αν βρεις case που χρειάζεται συνέχεια copy στη video ram ίσως ο M1 να έχει το πάνω χέρι.

Όσον αφορά τα υπόλοιπα δε ξέρω από που να το πρωτοπιάσω. Μπερδεμένες σκέψεις. Τι σχέση έχει το DirectX της MS με το OpenGL που είναι open standard (Kronos) και δεν χρησιμοποιείται πλέον πλην του Linux με τις 150 εντολές για το Photoshop που δεν έχει σχέση με την Apple..

Οι Adobe και οι λοιποί έχουν τα εργαλεία στα χέρια τους για να βελτιώσουν τα προϊόντα τους από το καλοκαίρι του 2020. Αν δεν το έκαναν φταίει η Apple? Που ξέρουμε τι προτεραιότητες και τι resources και τι πλάνα/roadmap έχει η κάθε εταιρία? Δεν μπορώ να καταλάβω τι λες για 150 εντολές που θα ξεπερνάνε σε ταχύτητα την 3090,

 

 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

10 ώρες πριν, tsarouc είπε

Ναι αλλά ποιος το προσέχει αυτό μου λες? Εδώ σε θέλω. Αυτό που θα μείνει στους φουκαράδες άσχετους που θα τρέξουν να σκάσουν τόσα χρήματα αυτό μένει στο μυαλό τους. Ότι έχουν 3090 ....

Το πιστεύεις αυτό που λες; 

Δηλαδή εσύ πιστεύεις ότι κάποιος που ΞΕΡΕΙ και καθόλου την 3090, ταυτόχρονα ΔΕΝ θα ξέρει ότι δεν παίζεις games με Apple hardware? 

Η Apple ποτέ δεν είπε τίποτα για games. Το ότι οι αρθρογράφοι βάζουν στην ίδια πρόταση τη λέξη Apple και gaming ξέρουμε πολύ καλά γιατί το κάνουν και που αποσκοπούν. 

Τη δουλειά τους κάνουν, ΝΙΩΣΤΕ.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Προφανώς και όσοι κάνουν συγκρίσεις Apple με Windows κάτω απο το πρίσμα της 3090 δεν εχουν ποτε χρησιμοποιήσει Apple. Αν νομίζετε οτι μια καρτα γραφικών αφορά μόνο παιχνίδια φανταζομαι η αγορά ενος Series X θα είχε λύσει όλα μας τα θεματα σε οτι αφορά αυτο (π.χ. εγω ειμαι mac user και εχω και Series X). Μην συγκρίνουμε το benchmark ισχυος με την χρήση. Οταν μιλάμε για photo, video editing σε windows θα το κάνεις ? Οταν μιλάμε για professional rendering σε windows θα το κανεις ως αρχιτέκτονας ? Μια τελέυταια χρήση που ίσως κανείς δεν έχει σκεφτεί ειναι το cryptomining η δημιουργια NFTs τα οποία η apple εχει αρχίσει να γλυκοκοιτάει λόγω χαμηλού price elasticity και σημαντικότατων ενεργειακών απαιτήσεων. Ως γνωστόν η Apple πάντα θέλει τετοιες αγορές που για τον χρήστη money is not an issue, οποτε με τα pay per use οφέλη του ενεργειακού efficiency της apple ίσως ανοίξει μια αγορά για την apple ου σήμερα δεν υπάρχει. Just saying......

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Το μέλλον είναι οι APU και ARM. Καλά το πάει η Apple. Εύχομαι να ξυπνήσουν και οι άλλοι. Το να είναι κοντά στην 3090 η απόδοση της GPU  με 200w λιγότερη κατανάλωση σημαίνει μικρότερο μέγεθος υπολογιστή αφού ψύχεται ποιο εύκολα, λιγότερο ενέργειακο αποτύπωμα για μια εταιρεία όταν έχει πολλούς σταθμούς εργασίας και το σημαντικότερο μπορεί να δούμε mobile workstations με ακόμα μεγαλύτερες επιδόσεις με λιγότερες απαιτήσεις ενέργειας.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

22 ώρες πριν, Agmourk είπε

Αντιλαμβάνεσαι ότι μια 3090 εάν την ψύξεις με υγρό άζωτο θα δουλεύει στο 3πλασιο απο ότι τώρα.

Σοβαρά τώρα, η σούπερ μοντίφα που δε θα την κάνει ΟΥΤΕ το 0,1% των αγοραστών ενός προϊόντος λόγω της δυσκολίας, της μηδέν πρακτικότητας και του τρομερού ρίσκου για ζημιά που ενέχει, αναφέρεται σε συγκριτικό με stock συσκευή; 

Και αν πασπαλίσεις με σκόνη από κέρατο μονόκερου τον M1, πάει κι αυτός 5Χ στις επιδόσεις που 'χει κανονικά. :P 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 hours ago, Haldol said:

Σοβαρά τώρα, η σούπερ μοντίφα που δε θα την κάνει ΟΥΤΕ το 0,1% των αγοραστών ενός προϊόντος λόγω της δυσκολίας, της μηδέν πρακτικότητας και του τρομερού ρίσκου για ζημιά που ενέχει, αναφέρεται σε συγκριτικό με stock συσκευή; 

Και αν πασπαλίσεις με σκόνη από κέρατο μονόκερου τον M1, πάει κι αυτός 5Χ στις επιδόσεις που 'χει κανονικά. :P 

Εάν μου αποδείξεις ότι το συγκεκριμένο προιόν απευθύνεται σε μεγαλύτερο ποσοστό του 0,1% της πραγματικής αγοράς των υπολογιστών (το σύνολο των Mac είναι στο 9% περίπου), εδώ είμαι.. :-D 

  • Confused 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
3 hours ago, cmvrgr said:

Το μέλλον είναι οι APU και ARM. Καλά το πάει η Apple. Εύχομαι να ξυπνήσουν και οι άλλοι. Το να είναι κοντά στην 3090 η απόδοση της GPU  με 200w λιγότερη κατανάλωση σημαίνει μικρότερο μέγεθος υπολογιστή αφού ψύχεται ποιο εύκολα, λιγότερο ενέργειακο αποτύπωμα για μια εταιρεία όταν έχει πολλούς σταθμούς εργασίας και το σημαντικότερο μπορεί να δούμε mobile workstations με ακόμα μεγαλύτερες επιδόσεις με λιγότερες απαιτήσεις ενέργειας.

Κάτι δεν έχεις καταλάβει νομίζω. Η απόδοση όπως την εννοούμε (επιδόσεις δλδ) δεν είναι ούτε κατά διάνοια κοντά στην 3090. Απλά σου λέει ότι πχ στα 100W θα αποδίδου εξίσου καλά με μια 3090 (που και αυτό φουλ παραπλανητικό είναι. και αν δεν πιστεύεις πάνε δες κανονικά benchmarks στο YT ή αγόρασε τα μόνος σου να δεις).

Είναι σαν να λες πχ το τάδε αμάξι 1200cc μπορεί να τρέχει σταθερά 80χλμ στην εθνική, το ίδιο και μια lambporghini.

3 hours ago, cmvrgr said:

Το μέλλον είναι οι APU και ARM. Καλά το πάει η Apple. Εύχομαι να ξυπνήσουν και οι άλλοι. Το να είναι κοντά στην 3090 η απόδοση της GPU  με 200w λιγότερη κατανάλωση σημαίνει μικρότερο μέγεθος υπολογιστή αφού ψύχεται ποιο εύκολα, λιγότερο ενέργειακο αποτύπωμα για μια εταιρεία όταν έχει πολλούς σταθμούς εργασίας και το σημαντικότερο μπορεί να δούμε mobile workstations με ακόμα μεγαλύτερες επιδόσεις με λιγότερες απαιτήσεις ενέργειας.

Το ARM υπάρχει δεκαετίες και δεν θα μπορέσει ποτέ να δώσει performance αντίστοιχο άλλων αρχιτεκτονικών. Είναι καλό για λαπτοπακια (αυτονομία), άντε και να βγάλει κάνα desktop cpu η Apple να εκμεταλλευτεί το "hype". Thats all.

Επεξ/σία από NotAliki177
  • Confused 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

16 ώρες πριν, amav είπε

Λεγόταν copper (Co-Processor), o M1 έχει πάνω από 12 συνεπεξεργαστές. Και όχι ο copper δεν είναι πιο γρήγορος από.... τίποτα. Είναι αστείο όλο το παραπάνω και σαν τέτοιο ελπίζω να το έλεγες.

Οι μετρήσεις που έκαναν προφανώς έγιναν σε σε τέτοιο τρόπο που να βολεύουν, έτσι γίνεται με κάθε εταιρία.

Η RTX3090 είναι πολύ γρήγορη, πολύ ενεργοβόρα, με πολλά transistors και τεράστια συστήματα ψύξης. Ο Ultra πατάει στο γεγονός ότι για να κάνει κάτι μια DGPU πρέπει να κάνεις πρώτα copy στην video ram, κάτι που δεν υφίσταται στη unified memory. Φαντάσου το σαν κόντρα αυτοκινήτων, η NVidia να πρέπει να αλλάζει ταχύτητες ενώ ο ultra έχει μια μόνο ταχύτητα. Σε κάθε "αλλαγή" χάνει λίγο και μετά επανέρχεται. Αν βρεις case που χρειάζεται συνέχεια copy στη video ram ίσως ο M1 να έχει το πάνω χέρι.

Όσον αφορά τα υπόλοιπα δε ξέρω από που να το πρωτοπιάσω. Μπερδεμένες σκέψεις. Τι σχέση έχει το DirectX της MS με το OpenGL που είναι open standard (Kronos) και δεν χρησιμοποιείται πλέον πλην του Linux με τις 150 εντολές για το Photoshop που δεν έχει σχέση με την Apple..

Οι Adobe και οι λοιποί έχουν τα εργαλεία στα χέρια τους για να βελτιώσουν τα προϊόντα τους από το καλοκαίρι του 2020. Αν δεν το έκαναν φταίει η Apple? Που ξέρουμε τι προτεραιότητες και τι resources και τι πλάνα/roadmap έχει η κάθε εταιρία? Δεν μπορώ να καταλάβω τι λες για 150 εντολές που θα ξεπερνάνε σε ταχύτητα την 3090,

 

 

Δεν καταλαβαίνω γιατί πρέπει να μου εξηγήσεις ότι ήδη γράφω! Γράφω πως τον ονομάζανε copper (και ήταν μέσα στον Agnus) το ξαναγράφεις λες και δεν ειπώθηκε. Για το αν είναι αστείο; Φυσικά και είναι αστείο, αλλά υπάρχει μία υποβόσκουσα αλήθεια που μάλλον δεν κατάλαβες: Ο Copper είχε ελάχιστες εντολές αλλά με αυτές μπορούσες να φτιάξεις gradient fills και κάποια άλλα εφέ με σχεδόν μηδενικό κώδικα και ΤΑΧΥΤΑΤΑ γιατί ήταν φτιαγμένος για αυτή τη δουλειά.

Αναφέρω στο τέλος πως ίσως το κόλπο στο benchmark να είναι τεράστια layers περισσότερα από την VRAM της 3090 (εκεί που κερδίζει το M1 chip), ξανά, γράφεις το ίδιο πράγμα.

Όσον αφορά τις "μπερδεμένες σκέψεις" μάλλλον εσύ τα διαβάζεις μπερδεμένα. Το αναφερόμενα APIs είναι ένας συνδυασμός hardware/software. Η Apple έκανε για χρόνια development το νέο OS σε συνεργασία με τους Partners που πάντα έχουν πρόσβαση ώστε να παρουσιάσουν όσο πιο γρήγορα γίνεται native εφαρμογές.

Και επειδή μάλλον δεν καταλαβαίνεις, θα σου δώσω το πιο απλό παράδειγμα:
Έχεις μία GTX980Ti. Δεν έχει δυνατότητα να κάνει hardware decoding ένα H265 stream.

Έχεις μία GT1030. Κάνει hardware decoding H265.

 

Ποια κάρτα είναι πιο γρήγορη από τις δύο;;;

Η GT1030 θα παίξει ομαλά και άκοπα ένα H265 βίντεο, αλλά σε όλα τα άλλα, είναι 300-400% πιο αργή από την GTX960Ti.

Οπότε, όσο χαζό είναι να βγαίνει ο ιδιοκτήτης μιας GT1030 και να λέει πως η κάρτα μου είναι γρηγορότερη από την GTX960Ti, τόσο χαζό είναι να βγαίνει και η Apple και να μας λέει πως υπό κάποιες συνθήκες, είναι γρηγορότερη από την RTX3090.

 


 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
39 λεπτά πριν, teodoreh είπε

Δεν καταλαβαίνω γιατί πρέπει να μου εξηγήσεις ότι ήδη γράφω! Γράφω πως τον ονομάζανε copper (και ήταν μέσα στον Agnus) το ξαναγράφεις λες και δεν ειπώθηκε. Για το αν είναι αστείο; Φυσικά και είναι αστείο, αλλά υπάρχει μία υποβόσκουσα αλήθεια που μάλλον δεν κατάλαβες: Ο Copper είχε ελάχιστες εντολές αλλά με αυτές μπορούσες να φτιάξεις gradient fills και κάποια άλλα εφέ με σχεδόν μηδενικό κώδικα και ΤΑΧΥΤΑΤΑ γιατί ήταν φτιαγμένος για αυτή τη δουλειά.

Αναφέρω στο τέλος πως ίσως το κόλπο στο benchmark να είναι τεράστια layers περισσότερα από την VRAM της 3090 (εκεί που κερδίζει το M1 chip), ξανά, γράφεις το ίδιο πράγμα.

Όσον αφορά τις "μπερδεμένες σκέψεις" μάλλλον εσύ τα διαβάζεις μπερδεμένα. Το αναφερόμενα APIs είναι ένας συνδυασμός hardware/software. Η Apple έκανε για χρόνια development το νέο OS σε συνεργασία με τους Partners που πάντα έχουν πρόσβαση ώστε να παρουσιάσουν όσο πιο γρήγορα γίνεται native εφαρμογές.

Και επειδή μάλλον δεν καταλαβαίνεις, θα σου δώσω το πιο απλό παράδειγμα:
Έχεις μία GTX980Ti. Δεν έχει δυνατότητα να κάνει hardware decoding ένα H265 stream.

Έχεις μία GT1030. Κάνει hardware decoding H265.

 

Ποια κάρτα είναι πιο γρήγορη από τις δύο;;;

Η GT1030 θα παίξει ομαλά και άκοπα ένα H265 βίντεο, αλλά σε όλα τα άλλα, είναι 300-400% πιο αργή από την GTX960Ti.

Οπότε, όσο χαζό είναι να βγαίνει ο ιδιοκτήτης μιας GT1030 και να λέει πως η κάρτα μου είναι γρηγορότερη από την GTX960Ti, τόσο χαζό είναι να βγαίνει και η Apple και να μας λέει πως υπό κάποιες συνθήκες, είναι γρηγορότερη από την RTX3090.

 


 

 

Είναι πολύ προσεκτικοι στο τι δηλώνουν , για τον απλούστατο λόγο, εκεί η παραπλάνηση τιμωρείται.

Αν κάποιο site και κάποιος έβγαλε το συμπέρασμα ότι αναφέρεται στην 3090 , τότε η AMD δεν έχει highest end gpus αλλα φύκια και μεταξωτές κορδέλες….που φυσικά είναι ψέμα μιας και οι κάρτες της AMD είναι πιο άμεσα συγκρινόμενες με τους gpu cores της apple .

Εξάλλου μέχρι πρότινος AMD είχαν τα Mac και Intel. Αυτά θεωρούσαν καλύτερα γραφικά για τους υπολογιστές τους τότε και δεν νομίζω να άλλαξε κάτι τώρα.

 

ΥΓ. Άκυρο τώρα ειδα τα ψιλά  γράμματα. Το μόνο σίγουρο είναι αν δεν αποδειχτεί στην πράξη θα πέσουν μυνησεις.

Επεξ/σία από atheatos
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Επισκέπτης
21 ώρες πριν, tsarouc είπε

Μπα... με ολόκληρα κατεβατά που γράφω και ασχολούμε ενεργά στην συζήτηση δεν νομίζω να είμαι ο ορισμός του τρολ... με 2 λέξεις / σπίθες που γράφουν μερικοί σαν εσένα για να ανάψει η φωτιά μόνο ένα τρολ το κάνει.. οπότε σκέψου λίγο περισσότερο! ;)

Ακριβώς αυτό φίλε, γράφεις όπως λες κατεβατά συχνά σε θέματα Apple (και καλά κάνεις αν έτσι θες!) αλλά και καλά δεν ξέρεις την διαμάχη Epic και Apple?

Ή μας τρολάρεις ή δεν ξέρεις τα θέματα για τα οποία γράφεις κατεβατά!

Καλή εβδομάδα!

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

17 ώρες πριν, amav είπε

Δηλαδή το NVidia DGX που δεν παίζει παιχνίδια πρέπει να είναι για τον ... έτσι; Μα τι διαβάζουμε; Δεν είναι όλα πρόκες και συγκρίνουμε σφυριά

- Δεν τρέχουν native x86 Windows σε M1. Τρέχουν ARM Windows σε κλασσικούς ARM (αργούς επεξεργαστές). Είναι της πλάκας, η MS όμως δουλεύει πυρετωδώς για να τα φτιάξει, και θα τα φτιάξει.

- Δεν τρέχουν x86 παιχνίδια σε ARM επεξεργαστές σε ARM Windows. Για να παίξει ένα σημερινό παιχνίδι σε αυριανά ARM Windows θα χρειαστεί μια αντίστοιχη ροσέτα, νομίζω το όνομα της θα είναι GLWT (GOOD LUCK WITH THAT)

- Τρέχουν x86 παιχνίδια σε M1 μέσω emulation, το αστείο είναι ότι παίζει καλύτερα από ότι ΘΑ παίζουν σε ARM Windows με το GLWT.

- Αν θέλεις να παίξεις παιχνίδια, μείνε με x86 windows, δε σε σώζει ούτε ο M1, ούτε τα ARM Windows.

Ε μα! Είπα κι εγώ του αφεντικού να πάρουμε ένα καλύτερο μηχάνημα για τον Jenkins και μου είπε αυτό ακριβώς. Με έβαλε στη θέση μου. Τρέχουμε Unreal Engine μου λέει; Έχουμε στο backend UE? E? ε?

Αν δεν τα στήσεις παραλιακή/λιμανάκια δε θα βγάλεις ασφαλή συμπέρασμα :)

Νομίζω!

Αυτο που λες ισχυει παρολα αυτα ακομα και σε Windows ο M1 εβγαζε μεγαλυτερα score απο τους υπολοιπους cpu τωρα η Microsoft δουλευει πανω σε αυτο το κομματι και ηδη στα Windows 11 εχει κανει καποια βηματα οι ARM τρεχουν καλυτερα.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...