ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Το Συμβούλιο της ΕΕ θα ψηφίσει για τον νόμο της ΕΕ για την τεχνητή νοημοσύνη: Τι διακυβεύεται;

Στις 2 Φεβρουαρίου 2024, το Συμβούλιο της ΕΕ (που εκπροσωπεί τις κυβερνήσεις των 27 κρατών μελών της ΕΕ) θα ψηφίσει για τον νόμο της ΕΕ για την τεχνητή νοημοσύνη. Μετά από σχεδόν 3 χρόνια διαπραγματεύσεων από τότε που η Ευρωπαϊκή Επιτροπή δημοσίευσε τη νομική πρόταση, τα ευρωπαϊκά κράτη μέλη θα ψηφίσουν υπέρ ή απόρριψη της τελικής Πράξης.

Ωστόσο, ορισμένα κράτη μέλη, ιδίως η Γαλλία και η Γερμανία, αμφισβήτησαν τον νόμο περί τεχνητής νοημοσύνης τις τελευταίες στιγμές. Εάν απορριφθεί ο νόμος για την τεχνητή νοημοσύνη, δεν θα οφείλεται στην ανεπαρκή προστασία των ανθρωπίνων δικαιωμάτων (που είναι φυσικά ένα σοβαρό ζήτημα), αλλά επειδή οι κυβερνήσεις των κρατών μελών επέλεξαν να δώσουν προτεραιότητα στα συμφέροντα της βιομηχανίας τεχνητής νοημοσύνης και των εθνικών υπηρεσιών επιβολής του νόμου έναντι των ανθρωπίνων δικαιωμάτων .

Γιατί ορισμένα κράτη μέλη αμφισβητούν τον νόμο AI;

Παρά το γεγονός ότι έκαναν πολύ λίγους συμβιβασμούς στις διαπραγματεύσεις, οι κυβερνήσεις της Γαλλίας και της Γερμανίας υποστήριξαν ότι Ο νόμος περί τεχνητής νοημοσύνης θα είναι υπερβολικά περιοριστικός, ειδικά όσον αφορά τους κανόνες για τα συστήματα τεχνητής νοημοσύνης γενικού σκοπού (GPAI), και οι δύο χώρες εγείρουν ζητήματα που σχετίζονται με τις υπηρεσίες επιβολής του νόμου. Η Γαλλία ειδικότερα ήθελε να έχει πολύ λίγη διαφάνεια και εποπτεία της χρήσης συστημάτων τεχνητής νοημοσύνης από τις υπηρεσίες της αστυνομίας και του ελέγχου της μετανάστευσης. Μάλιστα, κατά τη διάρκεια της Προεδρίας της η Γαλλία πέτυχε να εισαγάγει μια γενική εξαίρεση για οποιαδήποτε χρήση της τεχνητής νοημοσύνης για σκοπούς «εθνικής ασφάλειας», δίνοντας στα κράτη μέλη ένα τεράστιο παραθυράκι προς εκμετάλλευση όταν επιθυμούν να αναπτύξουν τεχνολογίες επιτήρησης που βασίζονται σε τεχνητή νοημοσύνη και παρακάμπτοντας όλες τις διασφαλίσεις για τα ανθρώπινα δικαιώματα του νόμου για την τεχνητή νοημοσύνη. Πιο πρόσφατα, η Γαλλία αντιμετώπισε ισχυρισμούς για βιομηχανικές πιέσεις με σύγκρουση συμφερόντων σε σχέση με την ισχυρή στάση της χώρας κατά της ρύθμισης του GPAI.

Υπάρχουν επίσης λόγοι να είμαστε δύσπιστοι ως προς τα κίνητρα ορισμένων υπουργείων στη Γερμανία. Ενώ ορισμένοι Γερμανοί εκπρόσωποι έχουν προτείνει ότι η πιθανή αντίθεσή τους στον νόμο AI είναι αποτέλεσμα της αποτυχίας του νόμου για την απαγόρευση της βιομετρικής επιτήρησης στην ΕΕ, δεν υπάρχει καμία ένδειξη ότι η Γερμανία αγωνίστηκε για αυτήν την απαγόρευση στις διαπραγματεύσεις. Τα έγγραφα που διέρρευσαν υποδεικνύουν ότι μπορεί, στην πραγματικότητα, να υποκινούνται από μια αντιπάθεια για τους κανόνες σχετικά με το GPAI.

Τις τελευταίες εβδομάδες, η Γαλλία και η Γερμανία προσπάθησαν να δημιουργήσουν μια «μειοψηφία αποκλεισμού» για να αντιταχθούν στον νόμο AI. Για να είμαστε σαφείς, ενώ οι κυβερνήσεις έχουν χρησιμοποιήσει τη γλώσσα των ανθρωπίνων δικαιωμάτων ως μερικό λόγο για να αντιταχθούν στον νόμο, στην πραγματικότητα το κίνητρό τους φαίνεται να είναι να προστατεύσουν την επιβολή του νόμου και τον κλάδο της τεχνητής νοημοσύνης από τη λογοδοσία και τον έλεγχο για τη χρήση AI. 

Αυτή η κατάσταση αποτελεί μέρος ενός ευρύτερου ελαττώματος στη νομοθεσία της ΕΕ.Ο νόμος AI είναι το αποτέλεσμα μιας βαθιάς ανισορροπίας ισχύος μεταξύ των θεσμικών οργάνων της ΕΕ, όπου οι εθνικές κυβερνήσεις και τα λόμπι επιβολής του νόμου υπερτερούν εκείνων που εκπροσωπούν το δημόσιο συμφέρον και τα ανθρώπινα δικαιώματα. Το Κοινοβούλιο δέχθηκε εκφοβισμό για να εγκαταλείψει σημαντικές προφυλάξεις των ανθρωπίνων δικαιωμάτων, επειδή τα κράτη μέλη επέλεξαν να παραχωρήσουν την άσκηση πίεσης από τη βιομηχανία και τις δυνάμεις ασφαλείας.

Τι διακυβεύεται εάν απορριφθεί ο νόμος περί τεχνητής νοημοσύνης; Ποιος κερδίζει από αυτό το σενάριο;

Ενώ το τελικό κείμενο του νόμου για την τεχνητή νοημοσύνη απέχει πολύ από το να είναι τέλειο και παραμένουν σημαντικές ελλείψεις από την άποψη των ανθρωπίνων δικαιωμάτων, μια ολική του απόρριψη θα εγκυμονούσε επίσης σημαντικούς κινδύνους για το μέλλον της ρύθμισης της τεχνητής νοημοσύνης.

Μια απόρριψη θα σήμαινε την  απώλεια του (αν και περιορισμένου) πλαισίου λογοδοσίας και διαφάνειας για την ανάπτυξη και χρήση τεχνητής νοημοσύνης υψηλού κινδύνου. Το κείμενο εισάγει τη διαφάνεια στο κοινό όταν χρησιμοποιούνται ορισμένα συστήματα υψηλού κινδύνου, απαιτήσεις για την αξιολόγηση του αντίκτυπου των θεμελιωδών δικαιωμάτων, καθώς και ένα πλαίσιο καθορισμού τεχνικών προτύπων για την ανάπτυξη και την πώληση τεχνητής νοημοσύνης. Εν ολίγοις, το κείμενο θέτει ορισμένα πολύ μέτρια όρια στη χρήση πολύ επικίνδυνων συστημάτων τεχνητής νοημοσύνης.

Επί πλέον,η απόρριψη του νόμου περί τεχνητής νοημοσύνης δεν σημαίνει ότι απαγορεύεται η βιομετρική μαζική επιτήρηση. Στην πραγματικότητα, ο νόμος για την τεχνητή νοημοσύνη επιτρέπει στα κράτη μέλη να εφαρμόσουν πλήρη απαγόρευση της δημόσιας αναγνώρισης προσώπου και άλλης βιομετρικής επιτήρησης σε εθνικό επίπεδο. Έτσι, ενώ ο νόμος της ΕΕ για την τεχνητή νοημοσύνη είναι μια χαμένη ευκαιρία για την πλήρη απαγόρευση των πρακτικών βιομετρικής μαζικής επιτήρησης, ωστόσο αφήνει ευκαιρίες για ισχυρότερη εθνική προστασία.

Η απόρριψη του νόμου περί τεχνητής νοημοσύνης θα εγκυμονούσε επίσης σοβαρούς κινδύνους για τους μελλοντικούς νόμους για την τεχνητή νοημοσύνη. Σύμφωνα με μια πρόσφατη μελέτη από το Ευρωπαϊκό Συμβούλιο για τις Εξωτερικές Σχέσεις, η επόμενη θητεία της ΕΕ θα δει μια «μεγάλη στροφή προς τα δεξιά, με τα λαϊκιστικά κόμματα να κερδίζουν ψήφους και έδρες». Παρόλο που τα κράτη μέλη αντιστάθηκαν ήδη στους περιορισμούς και την επίβλεψη της χρήσης της τεχνητής νοημοσύνης σε αυτή τη διαδικασία, αυτή η αντίσταση πρόκειται μόνο να αυξηθεί, με σοβαρές συνέπειες για την προστασία των ανθρωπίνων δικαιωμάτων. Η νέα Επιτροπή και το Κοινοβούλιο ενδέχεται να εξετάσουν το ενδεχόμενο διαχωρισμού τμημάτων του νόμου περί τεχνητής νοημοσύνης προκειμένου να λάβουν πιο αδύναμους κανόνες – ή καθόλου – σε «αμφιλεγόμενα» θέματα όπως η επιβολή του νόμου και η τεχνητή νοημοσύνη γενικού σκοπού.

Η απόρριψη θα ήταν μια σημαντική νίκη για τους λομπίστες των Big Tech και της βιομηχανία ασφάλειας, οι οποίοι αντιστάθηκαν στεναρά ενάντια σε οποιαδήποτε ευθύνη και διαφάνεια για τα συστήματα τεχνητής νοημοσύνης. Αυτές οι οντότητες θα πανηγύριζαν ότι θα μπορούσαν να συνεχίσουν να λειτουργούν με μυστικότητα και να αναπτύσσουν επικίνδυνα, ρατσιστικά συστήματα τεχνητής νοημοσύνης που βλάπτουν τους πιο περιθωριοποιημένους στην κοινωνία.

Ενώ ο νόμος περί τεχνητής νοημοσύνης απέχει πολύ από το να θέσει το παγκόσμιο πρότυπο για τη ρύθμιση της τεχνητής νοημοσύνης με βάση τα ανθρώπινα δικαιώματα που στοχεύει να είναι ,η αποτυχία της ΕΕ να το υιοθετήσει μετά από χρόνια διαπραγματεύσεων θα κινδύνευε να στείλει το επιζήμιο μήνυμα ότι το “AI είναι πολύ δύσκολο” να ρυθμιστεί, επομένως παίζοντας στην αφήγηση των Big Tech και ασκώντας πίεση για «αυτορρύθμιση».

Κοινωνία των πολιτών: Ποιες είναι οι απόψεις μας για τον νόμο AI;

Δεδομένου ότι ακόμη και πριν από την κυκλοφορία της αρχικής πρότασης AI Act,η κοινωνία των πολιτών απαιτεί ένα σαφές πλαίσιο προστασίας των ανθρωπίνων δικαιωμάτων για τη χρήση επικίνδυνων συστημάτων τεχνητής νοημοσύνης. Τον Νοέμβριο του 2021, περισσότερες από 100 οργανώσεις της κοινωνίας των πολιτών ζήτησαν συγκεκριμένες αλλαγές στον νόμο για να τεθούν πρώτα τα θεμελιώδη δικαιώματα.

Εάν εγκριθεί ο νόμος AI, θα εισαγάγει ορισμένες σημαντικές βελτιώσεις που έχουν σχεδιαστεί για τη βελτίωση των τεχνικών προτύπων και την αύξηση της υπευθυνότητας και της διαφάνειας για τη χρήση τεχνητής νοημοσύνης υψηλού κινδύνου. Θα λάβει ακόμη και (πολύ περιορισμένα) μέτρα για να απαγορεύσει ορισμένες χρήσεις τεχνητής νοημοσύνης. Ωστόσο, υπάρχουν επίσης σοβαροί λόγοι ανησυχίας σχετικά με το τελικό κείμενο του νόμου περί AI. Παραμερίζοντας εκείνους τους τομείς όπου η ΕΕ απλώς δεν έχει προχωρήσει αρκετά για να αποτρέψει τη ζημιά, ο νόμος για την τεχνητή νοημοσύνη μπορεί να συμβάλει σε ευρύτερες αλλαγές που επεκτείνουν και νομιμοποιούν τις δραστηριότητες επιτήρησης της αστυνομίας και των αρχών ελέγχου της μετανάστευσης, με αποτέλεσμα σημαντικές επιπτώσεις για τα θεμελιώδη δικαιώματα. 

Πηγή άρθρου: https://edri.org/

Leave a Comment