Το Ollama υποστηρίζει πλέον υλικολογική επιτάχυνση σε επεξεργαστές Apple M5, εφόσον είναι εγκατεστημένα 32 GB RAM
Το Ollama — μια εφαρμογή για τοπική εκτέλεση μοντέλων AI είναι πλέον ταχύτερο στη χρήση των επεξεργαστών M5 του Mac
Πώς φαίνεται
Η νέα έκδοση Ollama 0.19
Υποστηριζόμενα λειτουργικά συστήματα: Windows, macOS, Linux
Επιτάχυνση υλικού: Μόνο για τα Apple M5 (M5 Pro, M5 Max)
Απαιτήσεις μνήμης: Ελάχιστο 32 GB ενιαίας RAM
Τι άλλαξε
Το Ollama επιτρέπει στους χρήστες να φορτώνουν και να εκτελούν μοντέλα τεχνητής νοημοσύνης απευθείας στον υπολογιστή τους. Σε αντίθεση με υπηρεσίες cloud όπως το ChatGPT, δεν απαιτείται συνεχής σύνδεση στο δίκτυο.
Από την έκδοση 0.19 οι προγραμματιστές προσθέτουν υποστήριξη για το Apple MLX – πλαίσιο μηχανικής μάθησης, καθώς και ενιαία μνήμη (Unified Memory Architecture). Αυτό επιταχύνει τη λειτουργία του μοντέλου σε νέους επεξεργαστές Apple M5, μειώνοντας τον χρόνο μέχρι την πρώτη τιμή και αυξάνοντας τη συνολική ταχύτητα παραγωγής.
Πώς λειτουργεί
* Επιτάχυνση νευρωνικών: Το Ollama χρησιμοποιεί εξειδικευμένα νευρωνικά μοντέλα εντός των επεξεργαστών M5, κάνοντας την έξοδο τιμών πιο γρήγορη.
* Μοντέλα: Τα προσωπικά AI‑agents (π.χ., OpenClaw) και τα μεγαλύτερα συστήματα – OpenCode, Anthropic Claude Code, OpenAI Codex κλπ. λειτουργούν πιο γρήγορα.
Περιορισμοί
1. Η επιτάχυνση είναι διαθέσιμη μόνο σε επεξεργαστές Apple M5 (M5 Pro/Max).
2. Ο υπολογιστής πρέπει να έχει τουλάχιστον 32 GB ενιαίας μνήμης, διαφορετικά η επιτάχυνση δεν θα λειτουργήσει.
Έτσι, αν έχετε Mac με επεξεργαστή M5 και αρκετό RAM, μπορείτε να βελτιώσετε σημαντικά την απόδοση της τοπικής εφαρμογής AI Ollama.
Σχόλια (0)
Μοιραστείτε τη γνώμη σας — παρακαλώ να είστε ευγενικοί και εντός θέματος.
Συνδεθείτε για να σχολιάσετε