Σύμφωνα με πρόσφατες δηλώσεις ερευνητών του χώρου, τα μεγάλα γλωσσικά μοντέλα (LLMs) αντιμετωπίζουν θεμελιώδεις περιορισμούς που τα εμποδίζουν να αποτελέσουν τη βάση για την AGI.
Ο Gary Marcus, καθηγητής νευροεπιστήμης και γνωστός επικριτής των LLMs, δήλωσε πρόσφατα ότι «το παιχνίδι τελείωσε» όσον αφορά την προσδοκία ότι τα LLMs θα οδηγήσουν στην AGI. Στο άρθρο του Game Over, ο Marcus υποστηρίζει ότι τα μοντέλα αυτά είναι εξαιρετικά στην παραγωγή κειμένου, αλλά στερούνται κατανόησης, λογικής συνέπειας και πραγματικής γνώσης του κόσμου.
Ο Yann LeCun, επικεφαλής AI της Meta και ένας από τους «πατέρες» της βαθιάς μάθησης (deep learning), έχει χαρακτηρίσει τα LLMs ως «αδιέξοδο» για την AGI. Όπως τονίζει, η έλλειψη εσωτερικής αναπαράστασης του κόσμου και η αδυναμία ενεργής μάθησης περιορίζουν την εξέλιξή τους σε κάτι περισσότερο από εργαλεία παραγωγής κειμένου.
Αντίστοιχα η Emily Bender, γλωσσολόγος και ερευνήτρια στο University of Washington, έχει επισημάνει ότι τα LLMs δεν κατανοούν τη σημασία των λέξεων που παράγουν. «Δεν υπάρχει καμία εγγύηση ότι η έξοδος τους έχει σχέση με την πραγματικότητα», αναφέρει, υπογραμμίζοντας τον κίνδυνο παραπληροφόρησης και ψευδών συμπερασμάτων.
Ο Richard Sutton, πρωτοπόρος της ενισχυτικής μάθησης και καθηγητής στο University of Alberta, τιμήθηκε το 2024 με το βραβείο Turing—το «Νόμπελ της Πληροφορικής»—μαζί με τον Andrew Barto, για την ανάπτυξη των θεωρητικών και αλγοριθμικών βάσεων της ενισχυτικής μάθησης. Στο δοκίμιό του The Bitter Lesson, ο Sutton υποστηρίζει ότι η πρόοδος στην AI προέρχεται από μεθόδους που βασίζονται στην υπολογιστική ισχύ και όχι στην ανθρώπινη γνώση. Θεωρεί ότι τα LLMs δεν μπορούν να μάθουν από εμπειρία και δεν διαθέτουν την απαραίτητη δυναμική για την επίτευξη AGI.
Ο Andrej Karpathy, πρώην διευθυντής AI στην Tesla και συνιδρυτής της OpenAI, δήλωσε πρόσφατα σε podcast ότι η AGI απέχει τουλάχιστον μία δεκαετία. Αν και εντυπωσιασμένος από μοντέλα όπως το Codex, θεωρεί ότι τα LLMs έχουν «γνωστικά ελλείμματα» και δεν διαθέτουν συνεχή μάθηση, μνήμη ή πολυτροπική κατανόηση.
Τέλος, τον Ιούνιο, ερευνητική δημοσίευση της Apple επιβεβαίωσε ότι ακόμη και με την ενσωμάτωση «reasoning», τα LLMs εξακολουθούν να αδυνατούν να αντιμετωπίσουν το πρόβλημα του distribution shift — τη βασική «Αχίλλειο πτέρνα» των νευρωνικών δικτύων. Λίγο αργότερα, αρκετές άλλες μελέτες, όπως η έρευνα “Mirage” του ASU, επέκτειναν τα ίδια ευρήματα.
Σύμφωνα με τους ειδικούς, τα LLMs παρουσιάζουν θεμελιώδεις περιορισμούς, όπως η απουσία αιτιακής σκέψης και πραγματικής κατανόησης, καθώς και η αδυναμία εκμάθησης μέσω εμπειρίας ή αλληλεπίδρασης με τον κόσμο. Επιπλέον, εξαρτώνται από στατικά δεδομένα και στατιστικά πρότυπα, ενώ δεν μπορούν να αξιοποιήσουν πληροφορίες από αισθητήρες ή να εκτελέσουν δράσεις στον φυσικό χώρο.
Όπως επισημαίνεται, η AGI απαιτεί μοντέλα που μπορούν να συνδυάσουν αντίληψη, δράση, μνήμη, λογική και συναισθηματική νοημοσύνη. Οι ερευνητές στρέφονται πλέον σε υβριδικές προσεγγίσεις, όπως τα embodied agents, τα neuro-symbolic systems και τα μοντέλα με ενεργή μάθηση.
Το μόνο βέβαιο είναι πως η συζήτηση γύρω από την AGI παραμένει ανοιχτή. Ωστόσο, γίνεται ολοένα και πιο φανερό ότι ο δρόμος προς αυτήν δεν περνά αποκλειστικά μέσα από τα LLMs, ενώ διάφοροι υπερβολικοί χαρακτηρισμοί που συχνά ακούγονται δεν συμβάλλουν ουσιαστικά. Αντίθετα, χρειάζεται μια βαθιά επανεξέταση του τι πραγματικά σημαίνει «νοημοσύνη» και με ποιον τρόπο μπορεί να αποδοθεί τεχνητά.
-
1
ΣΧΟΛΙΑ (12)
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώραΔημοσίευση ως Επισκέπτης
· Αποσύνδεση