Με το B200, η Nvidia αναμένεται να ενισχύσει περαιτέρω την πρωτοκαθεδρία της στον τομέα της παραγωγής υλικού εξοπλισμού για την ανάπτυξη μοντέλων τεχνητής νοημοσύνης.

Το εξαιρετικά δημοφιλές H100 AI chip της Nvidia την κατέστησε εταιρία με χρηματιστηριακή αποτίμηση τρισεκατομμυρίων δολαρίων, ξεπερνώντας ενδεχομένως κολοσσούς όπως η Alphabet και η Amazon, ενώ ο ανταγωνισμός προσπαθεί έκτοτε να καλύψει την απόσταση που τον χωρίζει από την πρωτοπόρο Nvidia. Ήδη, όμως, αναλυτές εικάζουν ότι το προβάδισμα της Nvidia είναι πολύ πιθανό να ενισχυθεί, χάρη στο νέο Blackwell B200 GPU και GB200 "superchip".

SCR_20240318_mbxt.webp.0b076f09eccb89a6f73176b1cd3c6d62.webp

Ο Τζένσεν Χουάνγκ, διευθύνων σύμβουλος της Nvidia, κρατάει το νέο GPU στα αριστερά, δίπλα σε ένα H100 στα δεξιά, στη διάρκεια του GTC livestream.

H Nvidia ανακοίνωσε ότι το νέο B200 GPU προσφέρει έως και 20 petaflop υπολογιστικής ισχύος, από τα 208 δισεκατομμύρια τρανζίστορ του. Παράλληλα, παρουσιάστηκε το GB200, το οποίο συνδυάζει δύο B200 σε μία ενιαία μονάδα Grace GPU, ικανό να προσφέρει επιδόσεις 30 φορές μεγαλύτερες, για φορτία LLM, ενώ θα μπορούσε να αποδειχτεί και σημαντικά αποδοτικότερο. Η νέα πρόταση της Nvidia, σύμφωνα με την ανακοίνωση της εταιρίας, "περιορίζει το κόστος και την κατανάλωση ενέργειας έως και 25 φορές" σε σχέση με ένα H100.

Η εκπαίδευση ενός μοντέλου 1,8 τρισεκατομμυρίων παραμέτρων θα απαιτούσε έως τώρα 8.000 Hopper GPU και 15 megawatt ενέργειας, όπως υποστηρίζει η Nvidia. Πλέον, ο διευθύνων σύμβουλος της εταιρίας αναφέρει πως 2.000 Blackwell GPU μπορούν να πετύχουν το ίδιο αποτέλεσμα, καταναλώνοντας μόλις 4 megawatt ενέργειας.

Σε ένα benchmark LLM σε GPT-3 με 175 δισεκατομμύρια παραμέτρους, η Nvidia υποστηρίζει ότι το GB200 αποδίδει "μόλις" επτά φορές καλύτερα από ό,τι ένα Η100, ενώ προσφέρει τέσσερις φορές μεγαλύτερη ταχύτητα εκπαίδευσης.

NVIDIA_GB200_Grace_Blackwell_Superchip_Image.webp.614c73720ef50d8d2bf01ed2581c607d.webp

Ένα GB200 από κοντά: δύο GPU, μία CPU, μία μητρική.

Όπως ανέφερε η Nvidia στους δημοσιογράφους που παραβρέθηκαν στην παρουσίαση, μία από τις βασικές βελτιώσεις είναι η δεύτερης γενιάς transformer engine, η οποία διπλασιάζει τις υπολογιστικές δυνατότητες, το εύρος ζώνης και το μέγεθος του μοντέλου, χρησιμοποιώντας τέσσερα bits για κάθε νευρώνα, αντί για οκτώ (εξ ου και τα 20 petaflop FP4 που αναφέρθηκαν νωρίτερα). Μια δεύτερη βασική διαφορά καταγράφεται μόνο όταν συνδεθεί ένας τεράστιος αριθμός τέτοιων GPU: προκύπτει ένα νέας γενιάς NVLink, το οποίο επιτρέπει σε 576 GPU να επικοινωνούν μεταξύ τους, μέσα από 1,8 terabyte ανά δευτερόλεπτο αμφίδρομου εύρους ζώνης.

Η εξέλιξη αυτή υποχρέωσε τη Nvidia να δημιουργήσει ένα εντελώς νέο chip που λειτουργεί ως δικτυακός διακόπτης, με 50 δισεκατομμύρια τρανζίστορ και ανεξάρτητη υπολογιστική ισχύ: 3,6 teraflop στα FP8, όπως αναφέρει στην ανακοίνωσή της η εταιρία.

SCR_20240318_mflh.webp.45dba75337f9b77e331f5bd11261a135.webp

Η Nvidia ανακοίνωσε ότι προσθέτει τόσο FP4 όσο και FP6 με το Blackwell.

 Έως τώρα, όπως αναφέρει η Nvidia, ένα σύνολο μόλις 16 GPU θα δαπανούσε το 60% του χρόνου του επικοινωνώντας εσωτερικά, και μόλις το 40% εκτελώντας υπολογισμούς.

Η Nvidia ποντάρει στο ότι οι νέες GPU θα αγοραστούν μαζικά από τις ενδιαφερόμενες εταιρίες, επομένως τις ενσωματώνει σε μεγαλύτερες διατάξεις, όπως το GB200 NVL72, ικανό να υποδεχτεί 36 και 72 GPU σε μία υδρόψυκτη συστοιχία, αποδίδοντας συνολικά 720 teraflop για την εκπαίδευση ενός μοντέλου τεχνητής νοημοσύνης ή 1.440 petaflop (αλλιώς 1,4 exaflop) εξαγωγής συμπερασμάτων. Η μονάδα περιέχει περίπου τρία χιλιόμετρα εσωτερικής καλωδίωσης, αποτελούμενης από 5.000 καλώδια.

NVIDIA_GB200_NVL72_Image.webp.f4a84498fda0c65ea3af209cd9b0ee3e.webp

Το GB200 NVL72.

Κάθε θέση υποδοχής περιέχει είτε δύο chip GB200, είτε δύο διακόπτες NVLink, 18 από το πρώτο και εννέα από δεύτερο ανά μονάδα. Συνολικά, η Nvidia αναφέρει πως μία από αυτές τις μονάδες είναι ικανή να υποστηρίξει ένα μοντέλο 27 τρισεκατομμυρίων παραμέτρων. Το GPT-4 φημολογείται πως είναι μοντέλο της τάξης των 1,7 τρισεκατομμυρίων παραμέτρων περίπου.

H Nvidia ανακοίνωσε ότι Amazon, Google, Microsoft και Oracle ήδη σχεδιάζουν να προσφέρουν τις μονάδες NVL72 στις υπηρεσίες cloud που παρέχουν, αν και δεν είναι ακόμη σαφές πόσες από αυτές πρόκειται να αγοράσουν.

Προφανώς, η Nvidia είναι κάτι περισσότερο από πρόθυμη να προσφέρει στις εταιρίες ένα πλήρες πακέτο προτάσεων. Στην παρακάτω φωτογραφία, για παράδειγμα, βλέπουμε το DGX Superpod για το DGX GB200, που συνδυάζει οκτώ συστήματα σε ένα, αριθμώντας συνολικά 288 GPU, 576 CPU, 240TB μνήμης και 11,5 exaflop υπολογιστικής ισχύος.

DGX_SuperPOD_with_DGX_GB200_systems_Image.webp.1dfd5b80971afe6b0726b32e1a7b5ae9.webp

Η Nvidia αναφέρει πως τα συστήματά της μπορούν να υποστηρίξουν δεκάδες χιλιάδες GB200 superchip, τα οποία επικοινωνούν μέσω δικτύου 800Gbps, χάρη στο νέο Quantum-X800 InfiniBand (για έως και 144 συνδέσεις) ή το Spectrum-X800 ethernet (για έως 64 συνδέσεις).

Δεν αναμένεται να υπάρξουν μέσα στην ημέρα ανακοινώσεις για νέες gaming GPU, καθώς οι πληροφορίες αυτές προέρχονται από το τεχνολογικό συνέδριο της εταιρίας, το οποίο συνήθως είναι αποκλειστικά αφιερωμένο στο GPU computing και την τεχνητή νοημοσύνη, όχι το gaming. Όμως, η αρχιτεκτονική Blackwell πιθανότατα θα χρησιμοποιηθεί προκειμένου να υποστηρίξει τη μελλοντική σειρά καρτών RTX 50 για desktop gaming. 

  • Like 3
  • Thanks 3
  • Haha 1