Τα μεγάλα γλωσσικά μοντέλα (Large Language Models – LLMs) έχουν αναδειχθεί σε κεντρικό τεχνολογικό πυλώνα της σύγχρονης Τεχνητής Νοημοσύνης. Η ικανότητά τους να παράγουν φυσική γλώσσα, να συνοψίζουν, να μεταφράζουν και να υποστηρίζουν προγραμματιστικές ή αναλυτικές εργασίες έχει δημιουργήσει την εντύπωση μιας σχεδόν καθολικής νοημοσύνης. Ωστόσο, η ερευνητική βιβλιογραφία της περιόδου 2024–2025 καταδεικνύει με σαφήνεια ότι, παρά την εντυπωσιακή κλίμακα και τις βελτιώσεις από τεχνικές όπως το instruction tuning και το RLHF, τα LLMs εξακολουθούν να παρουσιάζουν θεμελιώδη όρια. Τα όρια αυτά δεν είναι απλώς ζητήματα «βελτιστοποίησης», αλλά σχετίζονται με τον ίδιο τον τρόπο που τα μοντέλα μαθαίνουν και λειτουργούν.
Περιορισμοί στη συλλογιστική και στην επίλυση προβλημάτων
Ένα από τα πιο συστηματικά καταγεγραμμένα προβλήματα αφορά τη συλλογιστική πολλαπλών βημάτων. Τα LLMs αποδίδουν καλά σε μοτίβα που μοιάζουν με τα δεδομένα εκπαίδευσής τους, αλλά αποτυγχάνουν σε σύνθετα θέματα, όπως μαθηματικές αποδείξεις, λογικό σχεδιασμό ή προβλήματα που απαιτούν αυστηρή ακολουθία κανόνων. Ακόμη και όταν χρησιμοποιούνται τεχνικές «scaffolding» ή εξωτερικά εργαλεία, η απόδοση παραμένει εύθραυστη και μη αξιόπιστη. Η έννοια των «αναδυόμενων ικανοτήτων» αποδεικνύεται συχνά ασταθής: μικρές αλλαγές στο πρόβλημα ή στο πλαίσιο μπορούν να οδηγήσουν σε απότομη κατάρρευση της απόδοσης, γεγονός που υπονομεύει τη χρήση των LLMs σε κρίσιμες εφαρμογές.
Παραισθήσεις και αξιοπιστία της γνώσης
Ένα δεύτερο, εξίσου κρίσιμο, όριο αφορά τις λεγόμενες «παραισθήσεις». Τα LLMs τείνουν να παράγουν πειστικές αλλά λανθασμένες πληροφορίες, ιδιαίτερα όταν το ερώτημα είναι ασαφές, απαιτεί μακρά αλυσίδα συλλογισμών ή αφορά πεδία με περιορισμένα δεδομένα. Η βιβλιογραφία δείχνει ότι, αν και οι τεχνικές ευθυγράμμισης μειώνουν τη συχνότητα των παραισθήσεων, δεν τις εξαλείφουν. Επιπλέον, οι μέθοδοι ανίχνευσης είναι κατά κανόνα εξαρτώμενες από το εκάστοτε έργο και το γνωστικό πεδίο. Αυτό σημαίνει ότι δεν υπάρχει γενικευμένη λύση, κάτι που περιορίζει δραστικά την εμπιστοσύνη σε αυτοματοποιημένες αποφάσεις βασισμένες αποκλειστικά σε LLMs.
Περιορισμοί πεδίου και γλωσσικής κάλυψης
Παρά τον χαρακτηρισμό τους ως «γενικού σκοπού», τα LLMs παρουσιάζουν σημαντικές αδυναμίες σε εξειδικευμένα και υψηλού ρίσκου πεδία, όπως η ιατρική, το δίκαιο ή τα χρηματοοικονομικά. Χωρίς ενίσχυση από εξωτερικές βάσεις γνώσης ή εργαλεία ανάκτησης πληροφορίας, τα αποτελέσματα είναι συχνά αναξιόπιστα. Ακόμη όμως και με τέτοιες ενισχύσεις, η σταθερότητα παραμένει ζητούμενο. Παράλληλα, η απόδοση μειώνεται αισθητά σε γλώσσες και διαλέκτους χαμηλών πόρων, αντανακλώντας τις ανισότητες στα δεδομένα εκπαίδευσης. Το αποτέλεσμα είναι η αναπαραγωγή ψηφιακών ανισοτήτων σε παγκόσμια κλίμακα, με άμεσες πολιτικές και κοινωνικές συνέπειες.
Κλίμακα, δεδομένα και υπολογιστικό κόστος
Η στρατηγική της συνεχούς κλιμάκωσης προσκρούει πλέον σε δομικά όρια. Η διαθέσιμη υψηλής ποιότητας διαδικτυακή γνώση πλησιάζει στον κορεσμό, ενώ η εκτεταμένη χρήση συνθετικών δεδομένων παρουσιάζει αβέβαια οφέλη πέρα από ένα σημείο. Ταυτόχρονα, η αύξηση του μεγέθους των μοντέλων και των context windows συνεπάγεται τεράστιο ενεργειακό και οικονομικό κόστος, με φθίνουσες αποδόσεις σε πολλά benchmarks. Αυτό θέτει σοβαρά ερωτήματα βιωσιμότητας, ιδιαίτερα για τον δημόσιο τομέα και την ευρωπαϊκή ψηφιακή πολιτική.
Έλεγχος, βαθμονόμηση και ασφάλεια
Ένα λιγότερο ορατό αλλά κρίσιμο όριο αφορά τη βαθμονόμηση της εμπιστοσύνης. Τα LLMs συχνά αποτυγχάνουν να συσχετίσουν την «βεβαιότητα» της απάντησής τους με την πραγματική ορθότητα, κάτι που είναι απαράδεκτο σε τομείς όπως η υγεία ή η δικαιοσύνη. Παράλληλα, ο λεπτομερής έλεγχος στόχων και περιορισμών παραμένει εύθραυστος. Οι τεχνικές prompt-based καθοδήγησης είναι ευάλωτες, ενώ οι μέθοδοι ευθυγράμμισης συχνά συγκρούονται με τη γενικότητα ή τη δημιουργικότητα του μοντέλου.
Συμπεράσματα για τα ανοικτά πρότυπα και τη δημόσια πολιτική
Τα παραπάνω όρια καθιστούν σαφές ότι τα LLMs δεν μπορούν και δεν πρέπει να αντιμετωπίζονται ως αυτόνομα συστήματα γενικής νοημοσύνης. Αντίθετα, απαιτείται μια αρχιτεκτονική προσέγγιση που θα τα εντάσσει σε οικοσυστήματα ανοικτών προτύπων, διαλειτουργικών εργαλείων και ελέγξιμων διαδικασιών. Για τον δημόσιο τομέα και την ευρωπαϊκή ψηφιακή στρατηγική, αυτό σημαίνει επένδυση όχι μόνο σε υπολογιστική ισχύ, αλλά και σε ανοικτά δεδομένα, ανοικτό λογισμικό, διαφάνεια και θεσμικούς μηχανισμούς λογοδοσίας. Μόνο έτσι μπορούν τα LLMs να αξιοποιηθούν ως υποστηρικτικά εργαλεία, χωρίς να μετατραπούν σε αδιαφανή και αναξιόπιστα «μαύρα κουτιά» που υπονομεύουν το δημόσιο συμφέρον.
Οι παρακάτω πηγές συγκλίνουν στο ότι τα όρια των LLMs είναι δομικά και όχι συγκυριακά. Για τον λόγο αυτό, αποτελούν κρίσιμο τεκμηριωτικό υπόβαθρο για πολιτικές που προκρίνουν ανοικτά πρότυπα, διαφάνεια, επαληθευσιμότητα και συμπληρωματική χρήση των LLMs, αντί για άκριτη αυτοματοποίηση αποφάσεων στον δημόσιο και ιδιωτικό τομέα.
—
Πηγές που αξιοποιήθηκαν και για το άρθρο:
1. LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models, Συστηματική χαρτογράφηση περιορισμών LLMs σε συλλογιστική, δεδομένα, έλεγχο και αξιοπιστία, arxiv.org.
2. A Survey on Large Language Models with Insights on Limitations and Future Directions, Ευρεία επισκόπηση αρχιτεκτονικών, scaling laws και δομικών ορίων των LLMs, arxiv.org.
3. Limits of Emergent Reasoning: A Comprehensive Analysis of Large Language Models, Κριτική ανάλυση της έννοιας των «αναδυόμενων ικανοτήτων» και της αστάθειας τους, linkedin.
4. Limitations of Large Language Models in Clinical Problem-Solving, Εμπειρική μελέτη που τεκμηριώνει αστοχίες LLMs σε κλινικά και υψηλού ρίσκου σενάρια, nature.
5. Emergent Abilities in Large Language Models: A Survey, Ανάλυση θεωρητικών και εμπειρικών δεδομένων για τις αναδυόμενες ικανότητες και τα όριά τους, arxiv.org.
6. Large Language Models Hallucination: A Comprehensive Survey. Εκτενής επισκόπηση αιτίων, μετρικών και τεχνικών μετριασμού παραισθήσεων, arxiv.org.
7. Re-evaluating Hallucination Detection in Large Language Models, Κριτική αξιολόγηση μεθόδων ανίχνευσης παραισθήσεων και των περιορισμών τους, aclanthology.org.
8. Large Language Models in Legal Systems: A Survey, Τεκμηρίωση κινδύνων και περιορισμών χρήσης LLMs σε νομικά συστήματα, nature..
9. A Survey of Post-Training Scaling in Large Language Models, Ανάλυση φθινουσών αποδόσεων από κλιμάκωση και αυξανόμενο υπολογιστικό κόστος, aclanthology.org
10. Fundamental Capabilities and Applications of Large Language Models, Θεμελιώδης αποτύπωση δυνατοτήτων και εγγενών τεχνικών περιορισμών των LLMs, acm.org.
11. The State of AI Hallucinations in 2025, Επισκόπηση βιομηχανικών και ερευνητικών προσεγγίσεων για την αξιοπιστία των LLMs, getmaxim.ai.
12. 2025 Stack Overflow Developer Survey, Εμπειρικά δεδομένα για την πραγματική χρήση, τα όρια και τη δυσπιστία των προγραμματιστών απέναντι στα LLMs, survey.stackoverflow.

