Το Ollama υποστηρίζει πλέον υλικολογική επιτάχυνση σε επεξεργαστές Apple M5, εφόσον είναι εγκατεστημένα 32 GB RAM

Το Ollama υποστηρίζει πλέον υλικολογική επιτάχυνση σε επεξεργαστές Apple M5, εφόσον είναι εγκατεστημένα 32 GB RAM

21 software

Το Ollama — μια εφαρμογή για τοπική εκτέλεση μοντέλων AI είναι πλέον ταχύτερο στη χρήση των επεξεργαστών M5 του Mac

Πώς φαίνεται
Η νέα έκδοση Ollama 0.19
Υποστηριζόμενα λειτουργικά συστήματα: Windows, macOS, Linux
Επιτάχυνση υλικού: Μόνο για τα Apple M5 (M5 Pro, M5 Max)
Απαιτήσεις μνήμης: Ελάχιστο 32 GB ενιαίας RAM

Τι άλλαξε
Το Ollama επιτρέπει στους χρήστες να φορτώνουν και να εκτελούν μοντέλα τεχνητής νοημοσύνης απευθείας στον υπολογιστή τους. Σε αντίθεση με υπηρεσίες cloud όπως το ChatGPT, δεν απαιτείται συνεχής σύνδεση στο δίκτυο.

Από την έκδοση 0.19 οι προγραμματιστές προσθέτουν υποστήριξη για το Apple MLX – πλαίσιο μηχανικής μάθησης, καθώς και ενιαία μνήμη (Unified Memory Architecture). Αυτό επιταχύνει τη λειτουργία του μοντέλου σε νέους επεξεργαστές Apple M5, μειώνοντας τον χρόνο μέχρι την πρώτη τιμή και αυξάνοντας τη συνολική ταχύτητα παραγωγής.

Πώς λειτουργεί
* Επιτάχυνση νευρωνικών: Το Ollama χρησιμοποιεί εξειδικευμένα νευρωνικά μοντέλα εντός των επεξεργαστών M5, κάνοντας την έξοδο τιμών πιο γρήγορη.
* Μοντέλα: Τα προσωπικά AI‑agents (π.χ., OpenClaw) και τα μεγαλύτερα συστήματα – OpenCode, Anthropic Claude Code, OpenAI Codex κλπ. λειτουργούν πιο γρήγορα.

Περιορισμοί
1. Η επιτάχυνση είναι διαθέσιμη μόνο σε επεξεργαστές Apple M5 (M5 Pro/Max).
2. Ο υπολογιστής πρέπει να έχει τουλάχιστον 32 GB ενιαίας μνήμης, διαφορετικά η επιτάχυνση δεν θα λειτουργήσει.

Έτσι, αν έχετε Mac με επεξεργαστή M5 και αρκετό RAM, μπορείτε να βελτιώσετε σημαντικά την απόδοση της τοπικής εφαρμογής AI Ollama.

Σχόλια (0)

Μοιραστείτε τη γνώμη σας — παρακαλώ να είστε ευγενικοί και εντός θέματος.

Δεν υπάρχουν ακόμη σχόλια. Αφήστε ένα σχόλιο και μοιραστείτε τη γνώμη σας!

Για να αφήσετε σχόλιο, παρακαλώ συνδεθείτε.

Συνδεθείτε για να σχολιάσετε