ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Το Ευρωπαϊκό Κοινοβούλιο στέλνει ένα παγκόσμιο μήνυμα για την προστασία των ανθρωπίνων δικαιωμάτων από την τεχνητή νοημοσύνη

Στις 11 Μαΐου, οι επιτροπές IMCO και LIBE του Ευρωπαϊκού Κοινοβουλίου ψήφισαν για να θέσουν τους προστατεύσουν τους πολίτες στον νόμο για την AI. Αυτή η ψηφοφορία έρχεται σε μια κρίσιμη στιγμή για την παγκόσμια ρύθμιση των συστημάτων τεχνητής νοημοσύνης και είναι μια τεράστια νίκη για τα θεμελιώδη δικαιώματά μας καθώς το Κοινοβούλιο έλαβε υπόψη τα αιτήματα των διαφορετικών φωνών της κοινωνίας των πολιτών .

Οι εργασίες για τον νόμο της ΕΕ για την τεχνητή νοημοσύνη ξεκίνησαν το 2020 και το δίκτυο και οι εταίροι των οργανώσεων της Κοινωνίας των Πολιτών πίεζαν από την αρχή για μια προσέγγιση βασισμένη στα θεμελιώδη δικαιώματα πρωτίστως των ανθρώπων.

Οι επικεφαλής επιτροπές του Ευρωπαϊκού Κοινοβουλίου στέλνουν ένα σαφές μήνυμα ότι ορισμένες χρήσεις της τεχνητής νοημοσύνης είναι απλώς πολύ επιβλαβείς για να επιτραπούν , συμπεριλαμβανομένων των συστημάτων προληπτικής αστυνόμευσης , πολλών συστημάτων αναγνώρισης συναισθημάτων και βιομετρικής κατηγοριοποίησης και βιομετρικής αναγνώρισης σε δημόσιους χώρους. Αυτά τα συστήματα αποτελούν σοβαρές απειλές για τα θεμελιώδη δικαιώματα και διαιωνίζουν συστηματικές διακρίσεις σε βάρος ήδη περιθωριοποιημένων ομάδων, συμπεριλαμβανομένων των φυλετικών μειονοτήτων.

Οι ευρωβουλευτές έλαβαν υπόψη την προειδοποίηση περισσότερων από 80 ομάδων της κοινωνίας των πολιτών και δεκάδων χιλιάδων υποστηρικτών στην εκστρατεία Reclaim Your Face , επιλέγοντας να σταματήσουν πολλές από τις βασικές πρακτικές που ισοδυναμούν με βιομετρική μαζική επιτήρηση (BMS). Αυτή είναι μια σημαντική νίκη στον αγώνα κατά των πρακτικών που παραβιάζουν την ιδιωτική μας ζωή και την αξιοπρέπειά μας και μετατρέπουν τους δημόσιους χώρους μας σε χώρους καχυποψίας και καταστολής των δημοκρατικών δικαιωμάτων και ελευθεριών μας.

Ειδικότερα, αυτή η απαγόρευση καλύπτει όλες τις βιομετρικές ταυτότητες (RBI) σε πραγματικό χρόνο και τις περισσότερες μετά την απομακρυσμένη ταυτοποίηση σε δημόσιους χώρους, τη διακριτική βιομετρική κατηγοριοποίηση και την αναγνώριση συναισθημάτων σε απαράδεκτα επικίνδυνους τομείς . Αυτό είναι ένα ιστορικό βήμα για την προστασία των ανθρώπων στην ΕΕ από πολλές πρακτικές BMS τόσο από κρατικούς όσο και από ιδιωτικούς φορείς.

Αν και χαιρετίζουμε αυτά τα βήματα, στην Ευρώπη, η RBI είναι ήδη πραγματικότητα στη νομοθεσία και στην πράξη , θα συνεχίσουμε να υποστηρίζουμε σε επίπεδο ΕΕ και σε κάθε κράτος μέλος για τον τερματισμό όλων των πρακτικών BMS που παγώνουν τα δικαιώματα και τη συμμετοχή μας στη δημόσια ζωή.

Χρειάζεται διαφάνεια, λογοδοσία και δικαίωμα επανόρθωσης

Ένα βασικό αίτημα της κοινωνίας των πολιτών ήταν να απαιτήσει από όλους τους φορείς που αναπτύσσουν τεχνητή νοημοσύνη υψηλού κινδύνου («deployers») να είναι πιο διαφανείς και υπόλογοι σχετικά με το πού και πώς χρησιμοποιούν ορισμένα συστήματα τεχνητής νοημοσύνης. Οι ευρωβουλευτές συμφώνησαν ότι οι προγραμματιστές πρέπει να πραγματοποιήσουν εκτίμηση επιπτώσεων στα θεμελιώδη δικαιώματα προτού κάνουν χρήση συστημάτων τεχνητής νοημοσύνης.

Ωστόσο, οι ευρωβουλευτές απαιτούν μόνο από τις δημόσιες αρχές και τους «gatekeepers» (μεγάλες εταιρείες) να δημοσιεύουν τα αποτελέσματα αυτών των αξιολογήσεων. Πρόκειται για αυθαίρετη διάκριση και επίβλεψη, η οποία προσφέρει λιγότερες δημόσιες πληροφορίες όταν οι εταιρείες χρησιμοποιούν συστήματα υψηλού κινδύνου.

Επιπλέον, έχουν προστεθεί απαιτήσεις διαφάνειας για «θεμελιώδη μοντέλα» ή μοντέλα μεγάλων γλωσσών που βρίσκονται πίσω από συστήματα όπως το Chat GPT, συμπεριλαμβανομένης της υποχρέωσης εμφάνισης της απαιτούμενης υπολογιστικής ισχύος.

Έχουν επίσης ληφθεί σημαντικά βήματα για την ενδυνάμωση των ατόμων που επηρεάζονται από τη χρήση συστημάτων τεχνητής νοημοσύνης , συμπεριλαμβανομένης της απαίτησης να ειδοποιούνται και να παρέχονται εξηγήσεις σε άτομα που επηρεάζονται από αποφάσεις ή αποτελέσματα που βασίζονται στην τεχνητή νοημοσύνη, καθώς και διορθωτικά μέτρα για τις περιπτώσεις παραβίασης δικαιωμάτων.

Παρατεταμένες ανησυχίες σχετικά με τον ορισμό του «υψηλού κινδύνου» και της τεχνητής νοημοσύνης στη μετανάστευση

Υπάρχει κίνδυνος οι διασφαλίσεις που έχει θεσπίσει το Κοινοβούλιο έναντι επικίνδυνων συστημάτων τεχνητής νοημοσύνης να τεθούν σε κίνδυνο από τις προτεινόμενες αλλαγές στη διαδικασία ταξινόμησης κινδύνων στο άρθρο 6 του νόμου περί τεχνητής νοημοσύνης .

Η αλλαγή παρέχει ένα μεγάλο κενό στους προγραμματιστές τεχνητής νοημοσύνης (με κίνητρο για υποκατάταξη) για να υποστηρίξουν ότι δεν πρέπει να υπόκεινται σε νομοθετικές απαιτήσεις. Οι αλλαγές που προτείνονται στο άρθρο 6 ανοίγουν το έδαφος για νομική αβεβαιότητα, κατακερματισμό και, εν τέλει, κινδύνους υπονόμευσης του νόμου της ΕΕ για την τεχνητή νοημοσύνη. Θα συνεχίσουμε να πιέζουμε ενάντια σε αυτά τα κενά που ευνοούν τους φορείς του κλάδου έναντι των δικαιωμάτων των ανθρώπων.

Επιπλέον, το Ευρωπαϊκό Κοινοβούλιο σταμάτησε να προστατεύει τα δικαιώματα των μεταναστών από την επιτήρηση που προκαλεί διακρίσεις . Οι ευρωβουλευτές απέτυχαν να συμπεριλάβουν στον κατάλογο των απαγορευμένων πρακτικών όπου η τεχνητή νοημοσύνη χρησιμοποιείται για τη διευκόλυνση των παράνομων απωθήσεων ή για τη δημιουργία προφίλ ατόμων με τρόπο που εισάγει διακρίσεις. Χωρίς αυτές τις απαγορεύσεις το Ευρωπαϊκό Κοινοβούλιο ανοίγει τον δρόμο για ένα panopticon στα σύνορα της ΕΕ.

Τι ακολουθεί

Τον Ιούνιο αναμένεται να διεξαχθεί ψηφοφορία στην ολομέλεια με όλους τους ευρωβουλευτές, η οποία θα οριστικοποιήσει τη θέση του Κοινοβουλίου σχετικά με τον νόμο AI. Μετά από αυτό, θα εισέλθουμε σε μια περίοδο διαπραγματεύσεων με τα κράτη μέλη προτού αυτός ο κανονισμός μπορέσει να ψηφιστεί και να γίνει δίκαιο της ΕΕ. Ο ευρύς συνασπισμός της κοινωνίας των πολιτών θα συνεχίσει να επικεντρώνει τους ανθρώπους σε αυτές τις διαπραγματεύσεις.

Πηγή άρθρου: https://edri.org/

Leave a Comment