Κατά τη διάρκεια του συνεδρίου Ignite, η Microsoft παρουσίασε δύο νέα, ειδικά προσαρμοσμένα chips για να επιταχύνουν εφαρμογές Τεχνητής Νοημοσύνης και να υπερέχουν σε απόδοση όταν πρόκειται για φόρτους εργασίας στο cloud.

Το πρώτο από τα δύο chips είναι ο επεξεργαστής Azure Cobalt 100, ο οποίος υποστηρίζει το σύνολο εντολών 64-bit Armv9 και ενσωματώνει 128 πυρήνες. Η συγκεκριμένη υλοποίηση διαθέτει cloud-native σχεδιασμό και αναμένεται να αποτελέσει μέρος των προσφορών της Microsoft στον χώρο. Αν και δεν υπάρχουν πολλές λεπτομέρειες σχετικά με την εσωτερική του διαμόρφωση, η Microsoft ισχυρίζεται ότι οι διακομιστές με Azure Cobalt 100 ξεπερνούν από άποψη απόδοσης/ watt τη τρέχουσα γενιά διακομιστών Arm που «τρέχουν» Azure. Το SoC χρησιμοποιεί την πλατφόρμα Neoverse CSS της Arm προσαρμοσμένη για τη Microsoft ενώ οι πυρήνες ενδέχεται να είναι τύπου Arm Neoverse N2.

In-house-chips-silicon-to-service-to-meet-AI-demand-gallery-2-1536x1024.jpg

Όπως είναι γνωστό, η επιτάχυνση της Τεχνητής Νοημοσύνης, η οποία είναι απαραίτητη για την εκτέλεση των σημερινών μεγάλων γλωσσικών μοντέλων (LLM) είναι το «next big thing» στον χώρο των διακομιστών και του cloud. Η Microsoft φιλοξενεί το ChatGPT της OpenAI, το Copilot της Microsoft και πολλές άλλες υπηρεσίες Τεχνητής Νοημοσύνης (AI). Για να εκτελούνται όσο το δυνατόν ταχύτερα, η εταιρεία σχεδίασε το Maia 100 AI Accelerator -ουσιαστικά πρόκειται για το νέο όνομα του πρότζεκτ Athena-το οποίο κατασκευάζεται από την TSMC με μέθοδο 5nm.

Η εταιρεία απευθύνθηκε στην OpenAI για να λάβει σχόλια και παρατηρήσεις για το Azure Maia 100 AI Accelerator καθώς χρησιμοποίησε τα μεγάλα γλωσσικά μοντέλα της Microsoft-baked εταιρείας για δοκιμές. Ο Διευθύνων Σύμβουλος της OpenAI, Sam Altman, δήλωσε ότι το ανανεωμένο Azure της Microsoft θα παρέχει επίσης τη δυνατότητα για την εκπαίδευση βελτιωμένων μοντέλων καθιστώντας επίσης πιο προσιτά στους πελάτες.

In-house-chips-silicon-to-service-to-meet-AI-demand-gallery-1-1536x1024.jpg

Το Azure Maia 100 AI Accelerator διαθέτει 105 δισεκατομμύρια τρανζίστορς και υποστηρίζει διάφορα φορμά δεδομένων MX, ακόμη και μικρότερα από 8-bit για μέγιστη απόδοση. Προς το παρόν δοκιμάζεται στο GPT 3.5 Turbo ωστόσο δεν έχουν δοθεί ακόμη στοιχεία για τις επιδόσεις του, ούτε συγκριτικά διαγράμματα με το ανταγωνιστικό hardware της NVIDIA, όπως είναι οι επιταχυντές H100 ή H200 ή με το MI300X της AMD. Το Maia 100 επιδεικνύει bandwidth 4,8 terabits ανά επιταχυντή, το οποίο χρησιμοποιεί ένα προσαρμοσμένο πρωτόκολλο δικτύωσης βασισμένο στο Ethernet για scaling. Η εταιρεία αναμένεται να εγκαταστήσει διακομιστές στα κέντρα δεδομένων της με τα νέα chips στις αρχές του επόμενου έτους.

In-house-chips-silicon-to-service-to-meet-AI-demand-3-1536x1024.jpg

Τα ειδικά σχεδιασμένα chips μπορούν να βελτιστοποιήσουν περαιτέρω την υποδομή της Microsoft αντί να βασίζεται σε λύσεις τρίτων. «Όπως, με την οικοδόμηση ενός σπιτιού μπορείτε να ελέγχετε κάθε επιλογή και λεπτομέρεια του σχεδιασμού, έτσι και η Microsoft βλέπει την προσθήκη των δικών της chips ως έναν τρόπο να διασφαλίσει ότι κάθε στοιχείο είναι προσαρμοσμένο για τα φορτία εργασίας cloud και AI της ίδιας της εταιρείας» διαβάζουμε σε μία ανάρτηση στο blog της εταιρείας. «Τα chips θα φιλοξενούνται σε προσαρμοσμένες μητρικές πλακέτες διακομιστών, τοποθετημένες σε ειδικά διαμορφωμένα racks κατάλληλα για να χωράνε εύκολα στα υπάρχοντα κέντρα δεδομένων της Microsoft. Το υλικό θα συνεργάζεται χέρι-χέρι με το λογισμικό και θα διαμορφώνονται από κοινού για να ξεκλειδώνουν νέες δυνατότητες και ευκαιρίες» διαβάζουμε στην ίδια ανάρτηση.

  • Like 7