Εκτέλεση μοντέλου AI σε παλιό PDP‑11: ένας ενθουσιώδης χρησιμοποίησε έναν επεξεργαστή 6 MHz και 64 KB RAM
Η Microsoft veteran δείχνει τη λειτουργία ενός μετασχηματιστή σε έναν παλιό υπολογιστή
*Δέιβ Πλάμερ (Dave Plummer) – διάσημος προγραμματιστής Windows,*
*δείχνει ότι σύγχρονα μοντέλα AI μπορούν να εκπαιδευτούν ακόμη και με εξοπλισμό δεκαετίας.*
Τι έγινε
- Εξοπλισμός: PDP‑11 / 44, 47‑χρονός υπολογιστής με επεξεργαστή 6 MHz και 64 KB RAM.
- Μοντέλο: «Attention 11» – δίκτυο μετασχηματιστή, γραμμένο σε assembler PDP‑11 από τον Damien Buret.
- Στόχος εκπαίδευσης: να δημιουργήσει την αντίστροφη σειρά οκτώ αριθμών.
Τα μοντέλα δεν χρειάζεται να θυμηθούν παραδείγματα· πρέπει να μάθει το κανόνα «αναστροφής» της ακολουθίας.
Πώς λειτουργεί
1. Αρχικοποίηση – το μοντέλο ξεκινά με τυχαίες βαρές, η ακρίβεια σχεδόν μηδενική.
2. Εκπαίδευση – σε κάθε βήμα εκτελείται προώθηση (8‑bit σταθερό σημείο) και ενημέρωση των βαρών.
3. Σταδιακή μάθηση του μοτίβου – μετά από μερικές εκατοντάδες επαναλήψεις ο μηχανισμός προσοχής «εντοπίζει» τον κανόνα, και το μοντέλο μεταβαίνει από την μπερδεμένη πρόβλεψη στην πραγματική γνώση.
> “Παρατηρούμε μια απλουστευμένη ανατομία της ίδιας της εκπαίδευσης… η μηχανή τελικά διασχίζει τη φανταστική γραμμή – από το μάντεα στο γνώση.” – Πλάμερ
Αποτελέσματα
- Ακρίβεια: 100 % στην άμεση ακολουθία.
- Ταχύτητα: περίπου 350 βήματα εκπαίδευσης, που πήραν ~3,5 λεπτά στον PDP‑11/44 με cache.
Τι σημαίνει για τη σύγχρονη AI
Ο Πλάμερ τονίζει ότι οι θεμελιώδεις αρχές της εκμάθησης – επαναλαμβανόμενες αλγεβρικές πράξεις και διόρθωση λαθών – υλοποιούνται πλήρως ακόμη και σε ένα τόσο απλό σύστημα.
«Αυτό το παλιό μηχάνημα δεν σκέφτεται με μυστηριώδη τρόπο· απλά ενημερώνει χιλιάδες αριθμούς. Η ουσία της σύγχρονης AI είναι η κλίμακα αυτής της διαδικασίας.»
Έτσι, ο συγγραφέας απέδειξε ότι ο βασικός μηχανισμός των μετασχηματιστών παραμένει ο ίδιος, ανεξάρτητα από το εξοπλισμό που χρησιμοποιείται.
Σχόλια (0)
Μοιραστείτε τη γνώμη σας — παρακαλώ να είστε ευγενικοί και εντός θέματος.
Συνδεθείτε για να σχολιάσετε