H Intel ανακοίνωσε πρόσφατα δύο νέα AI-oriented chips, τa Nervana Neural Network Processor NNP-T1000 και NNP-I1000. Πρόκειται για τα πρώτα ASICs που έχουν σχεδιαστεί από την Intel ειδικά για εφαρμογές AI στο cloud.

Ο επεξεργαστής NNP-T1000 σχεδιάστηκε ειδικά για την εκπαίδευση AI και χάρη στην ευελιξία του, μπορεί να ενσωματωθεί τόσο σε clusters μικρών υπολογιστών όσο και σε υπερυπολογιστές, ενώ ο επεξεργαστής NNP-I1000 σχεδιάστηκε για την διαχείριση απαιτητικών εργασιών inference.

Να αναφέρουμε, ότι σήμερα η εκπαίδευση DNNs (Deep Neural Networks, deep learning) και το λεγόμενο «inference» πραγματοποιούνται ως επί το πλείστον στο cloud. Το inference αναφέρεται στη διαδικασία χρήσης ενός εκπαιδευμένου αλγόριθμου μηχανικής εκμάθησης για να κάνει μία πρόβλεψη. Για παράδειγμα, όταν χρησιμοποιείτε την αναγνώριση φωνής στο κινητό, η φωνή καταγράφεται από τη συσκευή και αποστέλλεται στο cloud για επεξεργασία σε έναν διακομιστή μηχανικής εκμάθησης. Μόλις ολοκληρωθεί το «inference processing», το τελικό αποτέλεσμα αποστέλλεται πίσω στο κινητό.  

intel2.jpg.3d0df0a37cdff024625cae265fdb5bc4.jpg

Παράλληλα με τα δύο chips που απευθύνονται σε επιχειρήσεις που χρησιμοποιούν AI στο σύννεφο (π.χ σε κοινωνικά δίκτυα, για ταχύτατο και ακριβές tagging φίλων σε φωτογραφίες), η Intel ανακοίνωσε και το chip Movidius. Το νέας γενιάς chip Movidius που αποτελεί μία μονάδα Vision Processing (VPU) διαθέτει αναβαθμισμένη αρχιτεκτονική υπολογιστικής όρασης που υπόσχεται δέκα φορές υψηλότερη απόδοση inference ενώ παράλληλα είναι έξι φορές αποδοτικότερο σε σχέση με τις ανταγωνιστικές λύσεις. Οι αποστολές του Movidius πάντως δεν πρόκειται να ξεκινήσουν πριν από το πρώτο μισό του 2020. Αρκετές εταιρείες, που δεν βασίζονται σε προϊόντα της Nvidia, θα βρουν την πρόταση της Intel αρκετά ελκυστική και θα επωφεληθούν από το άλμα στην απόδοση AI που υπόσχεται.

Η Intel είχε στο παρελθόν προειδοποιήσει ότι η αλματώδης άνοδος της χρήσης ΑΙ θα απαιτούσε τον διπλασιασμό της απόδοσης ανά σχεδόν τρεισήμισι μήνες – όμως κάτι τέτοιο δεν πρόκειται να συμβεί αν οι εταιρείες βασίζονται σε συμβατικούς επεξεργαστές. Καθώς γίγαντες του διαδικτύου όπως oi Facebook και Baidu βασίζονται στο μεγαλύτερο ποσοστό στην Intel για το AI, μπορεί να δούμε συντομότερα και στην πράξη τα οφέλη της συνεργασίας τους, όπως προηγμένα χαρακτηριστικά AI, ταχύτερη φόρτωση ιστοσελίδων κ.ά.

Engadget