Η Amazon σχεδιάζει να αναπτύξει μοντέλα AI σε τεράστια κυψέλη της Cerebras.

Η Amazon σχεδιάζει να αναπτύξει μοντέλα AI σε τεράστια κυψέλη της Cerebras.

12 hardware

Η Amazon και η Cerebras ενώνονται για την επιτάχυνση μεγάλων γλωσσικών μοντέλων

Η Amazon Web Services (AWS) ανακοίνωσε ότι στη μέση του 2026 θα αρχίσει να χρησιμοποιεί τα chips της νεοσύστατης εταιρείας Cerebras Systems Inc. μαζί με τους δικούς της επεξεργαστές Trainium. Σύμφωνα με τις εσωτερικές πληροφορίες της εταιρείας, αυτό θα δημιουργήσει «βέλτιστες συνθήκες» για την εκτέλεση και τη διατήρηση μεγάλων γλωσσικών μοντέλων (LLM). Λεπτομέρειες σχετικά με το οικονομικό μέρος της συμφωνίας δεν έχουν αποκαλυφθεί ακόμη.

Τι ακριβώς θα συμβεί
* Τα chips Trainium 3 της AWS θα επεξεργάζονται τις χρήσεις των χρηστών – «κατανοώντας» τη σημασία τους.

* Στη συνέχεια, τα chips Cerebras Wafer‑Scale Engine (WSE) θα αναλάβουν την παραγωγή απάντησης.

Έτσι, δύο εξειδικευμένοι επιτάχυντες εργάζονται σε ζεύγος και παρέχουν υπολογισμούς inference για LLM.

> «Η αλληλεπίδραση μεταξύ διαφορετικών στοιχείων συνήθως επιβραδύνει τη διαδικασία,» – σημειώνει η Nafea Bshara, αντιπρόεδρος της AWS. – «Αλλά στοχεύουμε να αποκτήσουμε πλεονέκτημα χρησιμοποιώντας chips που επεξεργάζονται τα inference πιο γρήγορα.»

Το πλεονέκτημα είναι ιδιαίτερα εμφανές εκεί όπου η ταχύτητα ανταπόκρισης είναι κρίσιμη: για παράδειγμα, κατά τη βήμα-βήμα συγγραφή κώδικα ή παραγωγή κειμένου σε πραγματικό χρόνο.

Γιατί αυτό είναι σημαντικό
* Η Amazon είναι ένας από τους μεγαλύτερους παρόχους cloud και ενεργός χρήστης GPU‑παραγωγών της Nvidia. Αυτή τη στιγμή η εταιρεία αναπτύσσει τα δικά της AI chips για να αυξήσει την αποδοτικότητα των κέντρων επεξεργασίας δεδομένων και να προσφέρει μοναδικές υπηρεσίες στους πελάτες.

* Για την Cerebras, η συνεργασία με την AWS είναι το πρώτο μεγάλο συμβόλαιο από έναν γιγάντιο data‑center, κάτι που αυξάνει την αναγνωρισιμότητα της μάρκας μπροστά σε πιθανούς αγορές. Αυτό είναι επίσης σημαντικό στο πλαίσιο των προγραμματισμένων IPO τους.

Συμπεράσματα
Η AWS και η Cerebras δημιουργούν μαζί μια νέα υποδομή για μεγάλα γλωσσικά μοντέλα: τα chips Trainium 3 επεξεργάζονται τις αιτήσεις, ενώ το WSE παράγουν απαντήσεις. Παρόλο που ένας ανεξάρτητος λογαριασμός μόνο με Trainium μπορεί να είναι φθηνότερος, η συνδυασμένη λύση υπόσχεται σημαντική επιτάχυνση όπου «η ώρα είναι χρήματα». Αυτό ενισχύει τις θέσεις της Amazon ως μεγάλος πελάτης της Nvidia και ταυτόχρονα προωθεί τα δικά AI chips της εταιρείας προς υψηλότερη αποδοτικότητα.

Σχόλια (0)

Μοιραστείτε τη γνώμη σας — παρακαλώ να είστε ευγενικοί και εντός θέματος.

Δεν υπάρχουν ακόμη σχόλια. Αφήστε ένα σχόλιο και μοιραστείτε τη γνώμη σας!

Για να αφήσετε σχόλιο, παρακαλώ συνδεθείτε.

Συνδεθείτε για να σχολιάσετε