O νόμος της ΕΕ για την τεχνητή νοημοσύνη, βρίσκεται τώρα στην τελική φάση των διαπραγματεύσεων και αποτελεί την πρώτη δεσμευτική νομοθεσία για την τεχνητή νοημοσύνη στον κόσμο που είναι πιθανό να επηρεάσει περαιτέρω τις προσπάθειες παγκόσμιας ρύθμισης,
Καθώς η ΕΕ προχωρά σε τριμερείς διαλόγους – τις διαπραγματεύσεις που καθορίζουν την τελική νομοθεσία – το βασικό ερώτημα θα είναι κατά πόσο ο νόμος για την τεχνητή νοημοσύνη επικεντρώνει στα ζητήματα τωβ ανθρωπίνων δικαιωμάτων και τις ανησυχίες των ανθρώπων που επηρεάζονται από «επικίνδυνα» συστήματα τεχνητής νοημοσύνης.
Στην Ευρώπη και σε όλο τον κόσμο, τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για την παρακολούθηση και τον έλεγχο μας σε δημόσιους χώρους, την πρόβλεψη της πιθανότητας μελλοντικής εγκληματικότητας, την «αποτροπή» της μετανάστευσης, την πρόβλεψη των συναισθημάτων μας και τη λήψη κρίσιμων αποφάσεων που καθορίζουν την πρόσβασή μας σε δημόσιες υπηρεσίες, όπως η ευημερία.
Ενώ το Ευρωπαϊκό Κοινοβούλιο ξεκινά τις διαπραγματεύσεις με εντολή για την προστασία των ανθρώπινων δικαιώματα — συμπεριλαμβανομένων των απαγορεύσεων σε επικίνδυνες τεχνολογίες όπως η αναγνώριση προσώπου στο κοινό — ορισμένες κυβερνήσεις της ΕΕ προσπαθούν να επεκτείνουν την ικανότητα της αστυνομίας να χρησιμοποιεί τεχνητή νοημοσύνη για να μας παρακολουθεί.
Ποιος μας προστατεύει από την αστυνομική τεχνολογία;
Τι διακυβεύεται για τα άτομα που υπόκεινται σε αυτά τα συστήματα;
Θα συζητηθούν τους επόμενους μήνες τα όρια για τη χρήση της τεχνολογίας επιτήρησης από την αστυνομία, το πόσο μπορούν οι θιγόμενοι να αμφισβητήσουν τη χρήση της τεχνητής νοημοσύνης και πόσο ρόλο θα πρέπει να διαδραματίσουν οι εταιρείες στην απόφαση για την εμβέλεια αυτής της νομοθεσίας.
Καθώς παρακολουθούμε τις οδυνηρές και εξοργιστικές συνέπειες της ανεξέλεγκτης αστυνομικής εξουσίας στη Γαλλία, δεν μπορούμε να αγνοήσουμε την κάθοδο σε μια κατάσταση αυξημένης επιτήρησης και βίας που ασκείται από την αστυνομία.
Τεχνολογίες όπως η τεχνητή νοημοσύνη θα τροφοδοτήσουν αυτήν την πραγματικότητα του δομικού ρατσισμού μόνο με περισσότερα εργαλεία, περισσότερες νομικές εξουσίες και λιγότερη ευθύνη για την αστυνομία.
Τα συστήματα τεχνητής νοημοσύνης, ειδικότερα, επιτρέπουν νέες και πιο επεμβατικές τεχνικές επιτήρησης και ελέγχου.
Από τη χρήση της αναγνώρισης προσώπου για την αναγνώριση ατόμων καθώς κυκλοφορούν ελεύθερα σε δημόσιους χώρους έως τα συστήματα πρόβλεψης αστυνόμευσης για να αποφασίσουν ποιος είναι εγκληματίας πριν διαπράξουν εγκλήματα, η AI αποκαλύπτει τη δυνατότητα των κυβερνήσεων να παραβιάζουν τις ελευθερίες με νέους, επιβλαβείς τρόπους.
Η προγνωστική αστυνόμευση μπορεί να εδραιώσει περαιτέρω τις διακρίσεις
Ορισμένα κράτη μέλη υποστηρίζουν ότι αυτές οι τεχνολογίες θα τους βοηθήσουν να καταπολεμήσουν τα εγκλήματα και να βρουν τα εξαφανισμένα παιδιά.
Πρέπει να ρωτήσουμε, μήπως περισσότερη επιτήρηση σημαίνει περισσότερη ασφάλεια; Ποιος είναι πιο ασφαλής όταν το κράτος είναι πιο ικανό να μας παρακολουθεί;
Η αυξανόμενη χρήση της τεχνητής νοημοσύνης σε περιβάλλοντα αστυνόμευσης και μετανάστευσης έχει τεράστιες επιπτώσεις στις φυλετικές διακρίσεις.
Η ανάπτυξη τέτοιων τεχνολογιών εκθέτει τους έγχρωμους ανθρώπους σε περισσότερη επιτήρηση, πιο μεροληπτική λήψη αποφάσεων και πιο επιβλαβή προφίλ.
Τα συστήματα τεχνητής νοημοσύνης θα έχουν επιπτώσεις στα δικαιώματά μας να διαμαρτυρόμαστε λόγω της ανατριχιαστικής επίδρασης στις ελευθερίες, καθώς και στα δικαιώματα των παιδιών όταν η προγνωστική αστυνόμευση στοχεύει κυρίως νέους από φυλετικά υπόβαθρα, όπως βλέπουμε στο σύστημα Top-400 στην Ολλανδία.
Η ουσιαστική λογοδοσία και η ασφάλεια για το κοινό απαιτούν απαγορεύσεις σε αυτά τα επιβλαβή, επεμβατικά συστήματα, καθώς και σαφή δημόσια εποπτεία σχετικά με τον τρόπο με τον οποίο η αστυνομία και ο έλεγχος της μετανάστευσης χρησιμοποιούν συστήματα τεχνητής νοημοσύνης.
AI για τους ανθρώπους ή τους κερδοσκόπους;
Ακόμη και πέρα από τον έλεγχο της αστυνομίας και της μετανάστευσης, η χρήση της τεχνητής νοημοσύνης έχει την ικανότητα να καταστρέψει ζωές.
Όπως είδαμε όταν η ολλανδική κυβέρνηση ανέπτυξε την τεχνητή νοημοσύνη για να προβλέψει την απάτη μεταξύ των διεκδικητών του οικονομικού βοηθήματος για παιδιά, υπάρχουν πολλοί κίνδυνοι όταν αναθέτουμε τις πιο κρίσιμες αποφάσεις σε αυτοματοποιημένα συστήματα.
Στην Ολλανδία, οι γονείς ερευνήθηκαν λανθασμένα για απάτη και οι άνθρωποι έχασαν το οικονομικά βοηθήματα, τα οποία δεν έχουν ακόμη επιλυθεί πλήρως ή δεν έχουν αποδοθεί πλήρως.
Ο νόμος για την τεχνητή νοημοσύνη έχει κάποια ικανότητα να αντιμετωπίσει και να αποτρέψει τέτοιες μεγάλες βλάβες στις ζωές των ανθρώπων. Η νομοθεσία περιορίζει την τεχνητή νοημοσύνη «υψηλού κινδύνου», επισυνάπτοντας μια σειρά τεχνικών ελέγχων για τέτοια συστήματα πριν βγουν στην αγορά.
Ωστόσο, μεγάλες εταιρείες τεχνολογίας προσπαθούν να υπονομεύσουν αυτή τη διαδικασία. Πολλές εταιρείες πιέζουν ώστε η ΕΕ να εισάγει κενά στον ορισμό του «υψηλού κινδύνου», επιτρέποντας στους παρόχους τεχνητής νοημοσύνης να αποφασίσουν εάν το σύστημά τους είναι αρκετά «σημαντικό» ώστε να υπόκειται σε αυτούς τους κανόνες.
Εάν οι εταιρείες τεχνητής νοημοσύνης, που έχουν οικονομικό συμφέρον να μην χαρακτηρίζουν τα συστήματά τους ως υψηλού κινδύνου, επιτραπεί να αποφασίσουν οι ίδιες τις ετικέτες για τα συστήματά τους, τότε ολόκληρη η νομοθεσία θα τεθεί σε κίνδυνο.
Οι εταιρείες τεχνητής νοημοσύνης δεν πρέπει να εμπιστεύονται την αυτορρύθμιση όταν διακυβεύονται τεράστια κέρδη για αυτές.
Στην πραγματικότητα, το πλήρες σύνολο κανόνων για την τεχνητή νοημοσύνη «υψηλού κινδύνου» θα αποτελέσει μείζον θέμα συζήτησης. Θα πρέπει οι εταιρείες και οι κυβερνήσεις που χρησιμοποιούν τεχνητή νοημοσύνη να το αποκαλύψουν;
Θα πρέπει να μετρήσουν τους κινδύνους; Πώς μπορούν οι άνθρωποι που έχουν πληγεί από αυτά τα συστήματα να αμφισβητήσουν τη χρήση τους και να αναζητήσουν επανόρθωση;
Οι οργανώσεις ζητούν λογοδοσία
Για να διασφαλιστεί ότι αυτές οι ανησυχίες βρίσκονται στην κορυφή των προτεραιοτήτων των θεσμικών οργάνων της ΕΕ καθώς προχωρούν στους τριμερείς διαλόγους, ένας μεγάλος συνασπισμός της κοινωνίας των πολιτών ζητά ο νόμος AI για την προστασία των δικαιωμάτων των ανθρώπων.
Συνολικά 150 οργανισμοί ζητούν η νομοθεσία να ενδυναμώσει τους ανθρώπους θέτοντας ένα σαφές πλαίσιο λογοδοσίας, να αποτρέψει τη ζημιά και να εξασφαλίσει την εποπτεία όταν η τεχνητή νοημοσύνη χρησιμοποιείται από τις αρχές επιβολής του νόμου και να απωθήσει το εταιρικό λόμπι που επιδιώκει να υπονομεύσει τη νομοθεσία.
Ο νόμος για την τεχνητή νοημοσύνη είναι μια ευκαιρία που δίνεται μια φορά σε μια γενιά για τη ρύθμιση της τεχνολογίας που έχει ήδη εκτεταμένο αντίκτυπο στις ζωές των ανθρώπων.
Η ΕΕ πρέπει να δώσει προτεραιότητα στα δικαιώματα των ανθρώπων σε αυτή τη νομοθεσία-ορόσημο.
Πηγή άρθρου: https://edri.org/