Μέσα σε δύο μόλις χρόνια, οι επιταχυντές H100 της NVIDIA όχι μόνο χρησιμοποιήθηκαν από κάθε εταιρεία ανάπτυξης Τεχνητής Νοημοσύνης για την εκπαίδευση μεγάλων γλωσσικών μοντέλων που βρίσκονται πίσω από υπηρεσίες όπως το ChatGPT, αλλά «εκτίναξαν» και την χρηματιστηριακή αποτίμηση της εταιρείας του Jen-Hsun Huang στο φάσμα των τρισεκατομμυρίων.

Στις αρχές της προηγούμενης εβδομάδας, η NVIDIA ανακοίνωσε την επόμενης γενιάς πλατφόρμα επιταχυντών «Blackwell», οι οποίοι είναι από 7 έως και 30 φορές ταχύτεροι από τους H100 καταναλώνοντας μάλιστα έως και 25 φορές λιγότερη ενέργεια. Όσον αφορά στην απόδοση εξαγωγής συμπερασμάτων (inferencing performance), οι Blackwell GPUs προσφέρουν 5 φορές την απόδοση της σημερινής H100 GPU, γνωστής και ως «Hopper».  

«Οι GPUs τύπου Blackwell αποτελούν την κινητήριο δύναμη της νέας βιομηχανικής επανάστασης» δήλωσε ο Διευθύνων Σύμβουλος της NVIDIA, Jen-Hsun Huang στο ετήσιο συνέδριο GTC της εταιρείας που όπως κάθε χρόνο πραγματοποιείται στο San Jose, στην California, και στο οποίο παρευρέθηκαν και παρακολούθησαν χιλιάδες προγραμματιστές. «Η δημιουργική τεχνητή νοημοσύνη αποτελεί την πλέον καθοριστική τεχνολογία της εποχής μας. Συνεργαζόμενοι με τις δυναμικότερες εταιρείες στον κόσμο, θα υλοποιήσουμε την ιδέα της Τεχνητής Νοημοσύνης σε κάθε βιομηχανικό κλάδο» πρόσθεσε ο Jen-Hsun Huang σε ένα σχετικό Δελτίο Τύπου.

xDQzT8S4G9YDnABd.jpg

Οι επιταχυντές «Blackwell» (B200 και GB200) πήραν το όνομα τους προς τιμήν του μαθηματικού David Harold Blackwell, ο οποίος ειδικεύτηκε στη θεωρία παιγνίων και στην στατιστική. Η NVIDIA ισχυρίζεται ότι οι επιταχυντές Blackwell είναι οι ισχυρότεροι στον κόσμο και ότι προσφέρουν σημαντική αύξηση στις επιδόσεις για τις εταιρείες που αναπτύσσουν εφαρμογές Τεχνητής Νοημοσύνης καθώς σε σύγκριση με τα 4 petaflops του H100, προσφέρουν απόδοση 20 petaflops (AI inferencing). Επιπλέον είναι εξαιρετικά πιο πολύπλοκοι, με τα νέα chips «αρχιτεκτονικής Blackwell» να ενσωματώνουν 208 δισεκατομμύρια τρανζίστορ όταν το H100 διαθέτει 80 δισεκατομμύρια. Για να πετύχει κάτι τέτοιο, η εταιρεία συνέδεσε δύο μεγάλα dies (ουσιαστικά δύο chiplets) σε συσκευασία CoWoS-L (Chip-on-Wafer-on-Substrate από την TSMC) που μπορούν να επικοινωνούν μεταξύ τους μέσω ενός ειδικού υπερσυνδέσμου της NVIDIA με ταχύτητες έως και 10 terabytes ανά δευτερόλεπτο σε συνδυασμό με 192GB μνήμης HBM3E σε στοίβαξη 8x8-Hi. Κάθε ένα από τα δύο chiplets διαθέτει δίαυλο μνήμης εύρους 4.096-bit και επικοινωνεί με 96GB μνήμης HBM3E που απαρτίζεται από τέσσερις στοίβες των 24GB. Στην περίπτωση της συσκευασίας B200, αυτό ισοδυναμεί με 192GB μνήμης με το εύρος ζώνης της μνήμης να αγγίζει το εξωπραγματικό νούμερο των 8 terabytes ανά δευτερόλεπτο. Στη συσκευασία του B200 επίσης υπάρχει μία διασύνδεση NVLink ταχύτητας 1,8 terabytes ανά δευτερόλεπτο που χρησιμεύει για την σύνδεση με ένα δεύτερο chip τύπου B200.

InhnsHKTne0OREML.jpg

Σε μία ένδειξη του πόσο εξαρτημένη είναι η επανάσταση της Τεχνητής Νοημοσύνης από τους επιταχυντές της NVIDIA, το Δελτίο Τύπου της εταιρείας περιλαμβάνει δηλώσεις και μαρτυρίες από οκτώ Διευθύνοντες Συμβούλους που ηγούνται τεχνολογικών κολοσσών αρκετών τρισεκατομμυρίων δολαρίων. Ανάμεσα τους βρίσκονται οι Sam Altman (OpenAI), Satya Nadella (Microsoft), Sundar Pichai (Alphabet), Mark Zuckerberg (Meta), Demis Hassabis (Google DeepMind), Larry Ellison (Oracle), Michael Dell (Dell), Andy Jassy (Amazon) και Elon Musk (Tesla).

«Αυτή τη στιγμή, για Τεχνητή Νοημοσύνη, δεν υπάρχει τίποτα καλύτερο από το hardware της NVIDIA» αναφέρει ο Elon Musk στο Δελτίο Τύπου της NVIDIA. «Η (πλατφόρμα) Blackwell προσφέρει τεράστια άλματα απόδοσης και θα επιταχύνει την ικανότητα μας να παρέχουμε μοντέλα αιχμής. Είμαστε ενθουσιασμένοι που θα συνεχίσουμε να συνεργαζόμαστε με την NVIDIA για να ενισχύσουμε την υπολογιστική AI» αναφέρει ο Sam Altman.

tS0Alq2oCWwzfpnK.jpg

Η NVIDIA δεν αποκάλυψε πόσο θα κοστίζουν οι επιταχυντές Blackwell ωστόσο αναμένεται να είναι πολύ ακριβοί (μεταξύ $30.000 και $40.000 σύμφωνα με εκτίμηση του Jen-Hsun Huang) δεδομένου ότι πρόκειται για την αιχμή της τεχνολογίας. Τα παλαιότερης γενιάς H100 κοστίζουν σήμερα μεταξύ $25.000 και $40.000 ανά chip σύμφωνα με το CNBC και ολόκληρα συστήματα με τέτοιους επιταχυντές κοστίζουν μέχρι και $200.000.

Παρά το υψηλό κόστος τους, τα chips της NVIDIA έχουν τεράστια ζήτηση. Πέρυσι, οι χρόνοι αναμονής για την παράδοση έφταναν τους 11 μήνες. Η πρόσβαση επίσης στους επιταχυντές AI της NVIDIA θεωρείται όλο και περισσότερο ως ένα σύμβολο κύρους για τις εταιρείες τεχνολογίας που επιθυμούν να προσελκύσουν προγραμματιστές AI. Στις αρχές της χρονιάς, ο Mark Zuckerberg αναφέρθηκε στο μεγαλόπνοο σχέδιο της Meta να δημιουργήσει μία «τεράστια υποδομή» για να τροφοδοτήσει και να ενισχύσει τις προσπάθειες της στον χώρο της Τεχνητής Νοημοσύνης. «Στο τέλος του τρέχοντος έτους» δήλωσε ο Mark Zuckerberg, «θα έχουμε ~350 χιλιάδες μονάδες NVIDIA H100 - και συνολικά το ισοδύναμο της απόδοσης ~600 χιλιάδων μονάδων H100 αν συμπεριληφθούν και οι υπόλοιπες GPU που έχουμε στη διάθεση μας».

  • Like 2