Η Nvidia προετοιμάζεται για τον αγώνα της επεξεργασίας inference, δημιουργώντας ένα χிப் βασισμένο στις τεχνολογίες Groq για το OpenAI και τους AI‑agents.

Η Nvidia προετοιμάζεται για τον αγώνα της επεξεργασίας inference, δημιουργώντας ένα χிப் βασισμένο στις τεχνολογίες Groq για το OpenAI και τους AI‑agents.

5 hardware

Νέο τσιπ της Nvidia – βήμα προς τα πιο γρήγορα AI‑εφαρμογές

Η Nvidia σχεδιάζει να παρουσιάσει τον Μάρτιο ένα νέο επεξεργαστή, ειδικά σχεδιασμένο για την επιτάχυνση του inference (υπολογισμών ήδη εκπαιδευμένων μοντέλων) και στοχεύοντας σε πελάτες όπως η OpenAI. Αυτή είναι μια αλλαγή κατεύθυνσης της εταιρείας, που προηγουμένως εστιάζει κυρίως στην εκπαίδευση AI‑συσστημάτων.

Τι ακριβώς θα εμφανιστεί
- Η νέα πλατφόρμα θα παρουσιαστεί στη συνάντηση προγραμματιστών GTC (Graphics Technology Conference).

- Στο πυρήνα της πλατφόρμας θα ενσωματωθεί τσιπ από το startup Groq – ένα από τα πιο γρήγορα λύσεις για inference.

- Η πλατφόρμα πρέπει να ανταγωνιστεί τους εσωτερικούς επιταχυντές της Google και της Amazon, οι οποίοι έχουν ήδη σημειώσει σημαντικές επιτυχίες.

Γιατί είναι σημαντικό
Με την αύξηση της δημοφιλίας του «web‑coding» (δημιουργία κώδικα AI από κείμενο) η ζήτηση για γρήγορη και ενεργειακά αποδοτική υποδομή αυξάνεται.

Για τη OpenAI, ο νέος επεξεργαστής γίνεται κρίσιμος παράγοντας:

- Τον Ιανουάριο η εταιρεία συνάφθηκε συμφωνία με την Cerebras για τσιπ στοχευμένο σε inference, το οποίο, κατά τις εκτιμήσεις τους, είναι πιο γρήγορο από τους ανταγωνιστές.

- Πριν από λίγο καιρό η OpenAI ανακοίνωσε μια μεγάλη συμφωνία με τη Nvidia, μέσω της οποίας απέκτησε «αποφασισμένες δυνατότητες για inference» και επένδυσε 30 milliδόνους δολάρια από έναν «πράσινο» κατασκευαστή.

Περιβάλλον ανταγωνισμού
Εταιρεία | Προϊόν | Στοχευμένη χρήση
Nvidia | GPU οικογένειας Hopper, Blackwell, Rubin | Εκπαίδευση και inference
Google | TPU | Inference
Amazon | Trainium | Inference
Cerebras | Εξειδικευμένο τσιπ | Inference
Groq | Τσιπ με «blocks επεξεργασίας γλώσσας» | Inference

Η Nvidia κατέχει πάνω από το 90 % της αγοράς GPU, αλλά τα τσιπ της συχνά θεωρούνται ακριβά και ενεργειακά απαιτητικά για εργασίες inference. Αυτό προσελκύει την προσοχή εταιρειών που αναζητούν εναλλακτικές.

Κύριες εφαρμογές
- Δημιουργία κώδικα: οι υπηρεσίες Claude Code (Anthropic) και Codex (OpenAI) χρησιμοποιούν τις cloud υποδομές της Amazon και Google, αλλά ο Codex σχεδιάζει να μεταβεί στην νέα πλατφόρμα Nvidia.

- Στόχευση διαφημίσεων: η Meta συνεργάζεται με τη Nvidia για inference AI‑συστήματα, όπου οι κεντρικοί επεξεργαστές αποδεικνύονται τα πιο αποτελεσματικά.

Συμπέρασμα
Η Nvidia όχι μόνο διευρύνει την γκάμα προϊόντων της, αλλά εισέρχεται σε άμεσο ανταγωνισμό με τους γιγάντες του κλάδου. Το νέο τσιπ, ενσωματωμένο με το startup Groq, μπορεί να γίνει ο καθοριστικός παράγοντας για εταιρείες που επιδιώκουν πιο γρήγορη και οικονομική επεξεργασία AI‑μοντέλων.

Σχόλια (0)

Μοιραστείτε τη γνώμη σας — παρακαλώ να είστε ευγενικοί και εντός θέματος.

Δεν υπάρχουν ακόμη σχόλια. Αφήστε ένα σχόλιο και μοιραστείτε τη γνώμη σας!

Για να αφήσετε σχόλιο, παρακαλώ συνδεθείτε.

Συνδεθείτε για να σχολιάσετε