ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Η κοινωνία των πολιτών καλεί την ΕΕ να προστατεύσει τα δικαιώματα των ανθρώπων στις τριμερείς διαπραγματεύσεις του νόμου για την τεχνητή νοημοσύνη

150 οργανώσεις της κοινωνίας των πολιτών καλούν το Ευρωπαϊκό Κοινοβούλιο, την Ευρωπαϊκή Επιτροπή και το Συμβούλιο της ΕΕ να θέσουν πρώτους τους ανθρώπους και τα θεμελιώδη δικαιώματά τους στον νόμο για την AI , καθώς τα θεσμικά όργανα της ΕΕ προχωρούν σε τριμερή διαπραγμάτευση. Αυτές οι αποφασιστικές συναντήσεις θα καθορίσουν την τελική νομοθεσία και το πόσο επικεντρώνει τα ανθρώπινα δικαιώματα και τις ανησυχίες των ανθρώπων που θα μπορούσαν να επηρεαστούν από «επικίνδυνα» συστήματα τεχνητής νοημοσύνης.

Τα συστήματα AI έχουν ήδη εκτεταμένο αντίκτυπο στη ζωή μας. Χρησιμοποιούνται όλο και περισσότερο για την παρακολούθηση και την ταυτοποίησή μας σε δημόσιους χώρους , την πρόβλεψη της πιθανότητας εγκληματικότητας , την κατεύθυνση της αστυνόμευσης και του ελέγχου της μετανάστευσης σε ήδη υπό παρακολούθηση περιοχές, για την ενίσχυση παραβιάσεων του δικαιώματος να ζητήσουμε άσυλο , για την πρόβλεψη των συναισθημάτων μας και για την κατηγοριοποίησή μας . Χρησιμοποιούνται επίσης για τη λήψη κρίσιμων αποφάσεων σχετικά με εμάς, για παράδειγμα ποιος αποκτά πρόσβαση σε προγράμματα πρόνοιας.

Χωρίς κατάλληλη ρύθμιση, αυτά θα επιδεινώσουν τις υπάρχουσες κοινωνικές βλάβες της μαζικής επιτήρησης, των διαρθρωτικών διακρίσεων και της συγκεντρωτικής ισχύος των μεγάλων εταιρειών τεχνολογίας .

Ο νόμος για την τεχνητή νοημοσύνη είναι μια κρίσιμη ευκαιρία για τη ρύθμιση αυτής της τεχνολογίας και την ιεράρχηση των δικαιωμάτων των ανθρώπων έναντι των κερδών. Μέσω αυτής της νομοθεσίας, η ΕΕ πρέπει να διασφαλίσει ότι η ανάπτυξη και η χρήση της τεχνητής νοημοσύνης είναι υπεύθυνη, δημόσια διαφανής και ότι οι άνθρωποι έχουν την εξουσία να αμφισβητούν τις βλάβες:

Να ενισχύσει τα άτομα που επηρεάζονται υποστηρίζοντας ένα πλαίσιο λογοδοσίας, διαφάνειας, προσβασιμότητας και επανόρθωσης

Αυτό περιλαμβάνει την απαίτηση αξιολόγησης του αντίκτυπου στα θεμελιώδη δικαιώματα πριν από την ανάπτυξη συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου, εγγραφή συστημάτων υψηλού κινδύνου σε δημόσια βάση δεδομένων, οριζόντιες και ενσωματωμένες απαιτήσεις προσβασιμότητας για όλα τα συστήματα τεχνητής νοημοσύνης, δικαίωμα υποβολής καταγγελιών όταν τα δικαιώματα των ανθρώπων παραβιάζονται από ένα σύστημα τεχνητής νοημοσύνης , και δικαίωμα εκπροσώπησης και δικαιώματα σε αποτελεσματικά ένδικα μέσα.

Να περιορίσει την επιβλαβή και μεροληπτική επιτήρηση από τις αρχές εθνικής ασφάλειας, επιβολής του νόμου και μεταναστευτικών αρχών

Όταν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για την επιβολή του νόμου, την ασφάλεια και τον έλεγχο της μετανάστευσης, υπάρχει ακόμη μεγαλύτερος κίνδυνος βλάβης και παραβιάσεων των θεμελιωδών δικαιωμάτων, ειδικά για ήδη περιθωριοποιημένες κοινότητες. Πρέπει να υπάρχουν σαφείς κόκκινες γραμμές για μια τέτοια χρήση για την αποφυγή βλαβών. Αυτό περιλαμβάνει απαγορεύσεις για όλους τους τύπους απομακρυσμένης βιομετρικής ταυτοποίησης, συστήματα πρόβλεψης αστυνόμευσης, ατομικές αξιολογήσεις κινδύνου και προγνωστικά αναλυτικά συστήματα σε περιβάλλοντα μετανάστευσης.

Να αντισταθεί στο λόμπι των Big Tech και να αφαιρέσει τα κενά που υπονομεύουν τον κανονισμό

Για να εφαρμοστεί αποτελεσματικά ο νόμος για την τεχνητή νοημοσύνη, οι διαπραγματευτές πρέπει να αντεπιτεθούν τις προσπάθειες λόμπι των Big Tech που θέλουν υπονομεύσουν τον κανονισμό. Αυτό είναι ιδιαίτερα σημαντικό όταν πρόκειται για την ταξινόμηση κινδύνου των συστημάτων AI. Αυτή η ταξινόμηση πρέπει να είναι αντικειμενική και δεν πρέπει να αφήνει περιθώρια στους προγραμματιστές τεχνητής νοημοσύνης να αυτοπροσδιορίζονται εάν τα συστήματά τους είναι αρκετά «σημαντικά» ώστε να ταξινομηθούν ως υψηλού κινδύνου και απαιτούν νομική εξέταση. Οι εταιρείες τεχνολογίας, με τα κίνητρα κερδοσκοπίας τους, θα θέλουν πάντα να υποβαθμίζουν το κίνδυνο από τα δικά τους συστήματα τεχνητής νοημοσύνης.

Διαβάστε την πλήρη επιστολή εδώ

Πηγή άρθρου: https://edri.org/

Leave a Comment