Η Ευρωπαϊκή Ένωση έκανε ένα σημαντικό βήμα προς τη ρύθμιση της τεχνητής νοημοσύνης μέσω του AI Act, με στόχο την προστασία των θεμελιωδών δικαιωμάτων από τους κινδύνους που συνδέονται με συστήματα υψηλού ρίσκου. Ωστόσο, παρά τις φιλόδοξες προθέσεις του, ο κανονισμός αφήνει ανοιχτά σοβαρά παράθυρα που μπορούν να υπονομεύσουν την αποτελεσματικότητά του και να ενισχύσουν πρακτικές μαζικής παρακολούθησης και διακρίσεων.
Εξαιρέσεις για τη «εθνική ασφάλεια»: ένα επικίνδυνο κενό
Μία από τις πιο προβληματικές πτυχές του AI Act είναι η πλήρης εξαίρεση των συστημάτων που χρησιμοποιούνται για στρατιωτικούς, αμυντικούς ή σκοπούς εθνικής ασφάλειας. Η βάση αυτής της εξαίρεσης βρίσκεται στις Συνθήκες της ΕΕ, όμως το αποτέλεσμα είναι η δημιουργία μιας «γκρίζας ζώνης» όπου οι εγγυήσεις για τα ανθρώπινα δικαιώματα ουσιαστικά εξασθενούν.

Αυτή η ασάφεια μεταξύ εθνικής ασφάλειας και αστυνομικών αρμοδιοτήτων επιτρέπει στις αρχές να επικαλούνται ευρέως τον όρο «εθνική ασφάλεια» για να παρακάμπτουν αυστηρότερους κανόνες. Έτσι, διαδηλώσεις, δημόσιες συναθροίσεις ή η κοινωνική διαμαρτυρία μπορεί να βρεθούν υπό παρακολούθηση μέσω ασαφών και ανεπαρκώς ελεγχόμενων AI συστημάτων — δημιουργώντας ένα ισχυρό αποτρεπτικό αποτέλεσμα για θεμελιώδη δημοκρατικά δικαιώματα.
νεπαρκείς εγγυήσεις για συστήματα υψηλού ρίσκου
Ακόμη και στις περιπτώσεις όπου το AI Act εφαρμόζεται, οι προστασίες είναι αδύναμες. Πολλές εφαρμογές που χαρακτηρίζονται ως «απαγορευμένες πρακτικές», ιδίως σε τομείς όπως η μετανάστευση και η αστυνόμευση, συνοδεύονται από ασαφείς εξαιρέσεις που επιτρέπουν την ευρεία χρήση τους.
Επιπλέον, ο κανονισμός δεν θεωρεί υψηλού ρίσκου πολλά συστήματα που χρησιμοποιούνται στα σύνορα ή στη διαχείριση μεταναστευτικών ροών — όπως προβλεπτικά εργαλεία που οδηγούν σε διακρίσεις και περιορισμούς στην ελευθερία μετακίνησης. Σε συνδυασμό με χαλαρότερες απαιτήσεις διαφάνειας για αυτούς τους τομείς, δημιουργείται ένα περιβάλλον όπου ο δημόσιος έλεγχος είναι σχεδόν αδύνατος.
Το πρόβλημα με τη διάκριση «σε πραγματικό χρόνο» και «μεταγενέστερης» αναγνώρισης προσώπου
Αν και το AI Act επιβάλλει αυστηρούς περιορισμούς στη χρήση συστημάτων αναγνώρισης προσώπου σε πραγματικό χρόνο, η μεταγενέστερη ανάλυση οπτικού υλικού (post-remote biometric identification) υπόκειται σε πολύ πιο χαλαρούς κανόνες.
Αυτό μπορεί να επιτρέψει την ταυτοποίηση συμμετεχόντων σε πολιτικές διαδηλώσεις εκ των υστέρων, χωρίς καμία υποψία εγκληματικής πράξης — μια πρακτική που στην ουσία οδηγεί σε μαζική επιτήρηση και παραβιάζει δικαιώματα το ίδιο σοβαρά με τα συστήματα πραγματικού χρόνου.
Προτάσεις για ισχυρότερες εθνικές εγγυήσεις
Το AI Act αποτελεί μόνο το πρώτο βήμα. Για να λειτουργήσει πραγματικά υπέρ των θεμελιωδών δικαιωμάτων, οι χώρες της ΕΕ χρειάζεται να υιοθετήσουν συμπληρωματικές εθνικές ρυθμίσεις. :
- Σαφές πρωτόκολλο για χρήση AI σε θέματα εθνικής ασφάλειας
Με αυστηρή και στενή οριοθέτηση, ώστε να αποφεύγονται αλληλοεπικαλύψεις με την αστυνόμευση. - Πιο περιοριστικοί κανόνες για συστήματα υψηλού ρίσκου
Ιδίως για την απομακρυσμένη βιομετρική αναγνώριση και τη χρήση εργαλείων στον τομέα της μετανάστευσης. - Διαφανείς διαδικασίες αδειοδότησης
Με ξεκάθαρα βήματα για έγκριση ή απόρριψη χρήσης τέτοιων συστημάτων από τις αρχές. - Μηχανισμοί δημόσιας εποπτείας
Συμπεριλαμβανομένης της δημιουργίας δημόσιου μητρώου για όλα τα AI συστήματα του δημόσιου τομέα.
Αναγκαία η ενίσχυση των εθνικών πλαισίων
Το AI Act είναι ένα σημαντικό ορόσημο, αλλά δεν επαρκεί από μόνο του για να αποτρέψει τις πιο επικίνδυνες χρήσεις της τεχνητής νοημοσύνης. Η προστασία των δικαιωμάτων θα εξαρτηθεί από την ικανότητα των κρατών-μελών να αναγνωρίσουν τις αδυναμίες του κανονισμού και να θεσπίσουν δικά τους, αυστηρότερα μέτρα. Μόνο έτσι μπορεί να εξασφαλιστεί ότι η τεχνολογική πρόοδος θα ενισχύσει —και όχι θα υπονομεύσει— τη δημοκρατία και τις ελευθερίες μας.
Πηγή άρθρου: https://edri.org/our-work/
