ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Οι πιθανοί κίνδυνοι στη νομοθεσία για την Παραγωγική Τεχνητή Νοημοσύνη

Το άγχος για τη παραγωγική τεχνητή νοημοσύνη (generative Artificial Intelligence) αυξάνεται σχεδόν τόσο γρήγορα όσο και η χρήση της ίδιας της τεχνολογίας, τροφοδοτούμενη από δραματική ρητορική από εξέχουσες προσωπικότητες της τεχνολογίας, της ψυχαγωγίας και της εθνικής ασφάλειας.  Προτείνουν, ότι κάτι πρέπει να γίνει για να αποφευχθούν πολλές καταστροφές, από τον θάνατο του καλλιτέχνη μέχρι τη γέννηση νέων ρομπότ-Δυναστών .

Δεδομένου του συχνά υπερβολικού τόνου, μπορεί να είναι δελεαστικό (και σωστό) να απορρίψουμε πολλά από αυτά καθώς υπάρχει και ο συνήθης ηθικός πανικός προκαλούν οι νέες τεχνολογίες. Αλλά υπάρχουν και εύλογες ανησυχίες στο μείγμα, που μπορεί να απαιτούν ορισμένους κανόνες. Εάν ναι, οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να απαντήσουν σε ορισμένες σημαντικές ερωτήσεις πριν δημιουργήσουν ή μεταβιβάσουν αυτούς τους κανόνες. Όπως πάντα, ο διάβολος είναι στις λεπτομέρειες και αυτό το άρθρο είναι εδώ για να σας βοηθήσει να τα ταξινομήσετε για να εντοπίσετε σταθερές στρατηγικές και πιθανές παράπλευρες ζημιές. 

Πρώτον , οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να αναρωτηθούν εάν η νέα νομοθεσία είναι και απαραίτητη και σωστά εστιασμένη. Το Generative AI είναι μια κατηγορία εργαλείων γενικής χρήσης με πολλές πολύτιμες χρήσεις. Για κάθε εικόνα που αντικαθιστά μια μικρή χρηματική προμήθεια  για έναν εργαζόμενο καλλιτέχνη, υπάρχουν αμέτρητες ακόμα που δεν εκτοπίζουν τη ζωή κανενός—εικόνες που δημιουργούνται από ανθρώπους που εκφράζονται ή προσθέτουν τέχνη σε έργα που απλά δεν θα είχαν εικονογραφηθεί. Θυμηθείτε: ο σημαντικότερος αντίκτυπος της τεχνολογίας αυτοματοποιημένης μετάφρασης δεν ήταν η εκτόπιση των μεταφραστών – ήταν η δημιουργία δωρεάν και απλών τρόπων ανάγνωσης tweets και ιστοσελίδων σε άλλες γλώσσες, όταν διαφορετικά ένα άτομο δεν θα ήξερε τι λέγεται.  

Αλλά πολλές από τις ρητορικές που ακούμε αγνοούν αυτά τα οφέλη και επικεντρώνονται αποκλειστικά σε δυνητικά επιβλαβείς χρήσεις, σαν να ήταν το ίδιο το εργαλείο το πρόβλημα (και όχι πώς το χρησιμοποιούν οι άνθρωποι). Το ειρωνικό αποτέλεσμα: μια χαμένη ευκαιρία για ψήφιση και επιβολή νόμων που μπορούν πραγματικά να αντιμετωπίσουν αυτές τις βλάβες. 

Για παράδειγμα, εάν οι υπεύθυνοι χάραξης πολιτικής ανησυχούν για παραβιάσεις απορρήτου που προκύπτουν από τη συλλογή και τη χρήση εικόνων και προσωπικών πληροφοριών σε γενετική τεχνητή νοημοσύνη, η εστίαση στη χρήση και όχι στο εργαλείο θα μπορούσε να οδηγήσει σε έναν ευρύτερο νόμο : πραγματική και ολοκληρωμένη νομοθεσία περί απορρήτου που καλύπτει όλες τις εταιρικές παρακολούθηση και χρήση δεδομένων. Στην ιδανική περίπτωση, αυτός ο νόμος θα περιόριζε και τις βλάβες της τεχνητής νοημοσύνης στο απόρρητο (δημιουργικές και άλλες μορφές) και θα ήταν αρκετά ευέλικτος ώστε να ενημερώνεται για τις νέες τεχνολογικές εξελίξεις.     

Αλλά μερικές φορές δεν χρειαζόμαστε έναν νέο νόμο—απλώς χρειάζεται να κάνουμε καλύτερη δουλειά με αυτούς που ήδη έχουμε. Εάν, για παράδειγμα, οι νομοθέτες ανησυχούν για παραπληροφόρηση, μπορεί να ξεκινήσουν επανεξετάζοντας (και, όπου χρειάζεται, ενισχύοντας) τους πόρους για την επιβολή των υφιστάμενων νόμων για την απάτη και τη δυσφήμιση. Βοηθά το γεγονός ότι τα δικαστήρια έχουν περάσει δεκαετίες αξιολογώντας αυτές τις νομικές προστασίες και εξισορροπώντας τις έναντι αντισταθμιστικών συμφερόντων (όπως η ελεύθερη έκφραση). Δεν έχει νόημα να επανεξεταστούν αυτά τα ζητήματα για μια συγκεκριμένη τεχνολογία. Και όπου οι υφιστάμενοι κανονισμοί είναι πραγματικά αναποτελεσματικοί σε άλλα πλαίσια, οι υποστηρικτές πρέπει να εξηγήσουν γιατί θα είναι πιο αποτελεσματικοί έναντι των καταχρήσεων της γενετικής τεχνητής νοημοσύνης.

Δεύτερον , οι βλάβες που υποτίθεται ότι θα μετριάσει η πρόταση είναι τεκμηριωμένες ή εξακολουθούν να είναι υποθετικές; Για παράδειγμα, εδώ και χρόνια νομοθέτες (και άλλοι) έχουν σημάνει συναγερμό σχετικά με τις επιπτώσεις στην ψυχική υγεία από τη χρήση των μέσων κοινωνικής δικτύωσης. Αλλά υπάρχει λίγη έρευνα για να το αποδείξει, γεγονός που καθιστά δύσκολη την προσαρμογή μιας ρυθμιστικής απάντησης σε αυτό. Σε άλλους τομείς, όπως η συζήτηση για την κρυπτογράφηση, έχουμε δει πώς οι υποθετικές ή αναπόδεικτες ανησυχίες των αρχών επιβολής του νόμου, που εκφράζονται υπό τη σημαία της «ασφάλειας στο διαδίκτυο », χρησιμοποιούνται για να δικαιολογήσουν την υπονόμευση των βασικών προστασιών για την έκφραση και το απόρρητο στο διαδίκτυο. Για να δημιουργήσουν νόμους βασισμένους σε στοιχεία, οι υπεύθυνοι χάραξης πολιτικής πρέπει να επανεξετάσουν την έρευνα, να μιλήσουν με ειδικούς και την κοινωνία των πολιτών ( όχι μόνο με διευθύνοντες συμβούλους

Τρίτον και σχετικά, σε ποιο βαθμό μια νέα πρόταση περιλαμβάνει υποθετικές βλάβες σε βάρος της αντιμετώπισης πρακτικών και καλά τεκμηριωμένων υφιστάμενων βλαβών ; Ερευνητές και ομάδες της κοινωνίας των πολιτών κρούουν τον κώδωνα του κινδύνου για πάνω από μια δεκαετία σχετικά με τους κινδύνους της προγνωστικής αστυνόμευσης, της κυβερνητικής χρήσης συστημάτων αναγνώρισης προσώπου και της μεροληπτικής λήψης αποφάσεων για τη στέγαση, τις προσλήψεις και τα κρατικά οφέλη. Δεν πρέπει να αφήσουμε τις υπερβολές και τους τίτλους σχετικά με το μέλλον της generative AI να μας αποσπάσουν από την αντιμετώπιση της ζημιάς που προκαλείται σήμερα. Υπάρχουν πολλά που μπορούν και πρέπει να γίνουν για να διασφαλιστεί η διαφάνεια, να δοθεί η δυνατότητα στις κοινότητες να απορρίψουν ή να επιλέξουν τεχνολογίες, να συμμετάσχουν στην αξιολόγηση επιπτώσεων και να δημιουργήσουν υπευθυνότητα και διορθωτικά μέτρα για όσους ήδη υποφέρουν από αυτές τις βλάβες. Οι άνθρωποι που θέλουν να διασφαλίσουν ότι η παραγωγική τεχνητή νοημοσύνη εξυπηρετεί την ανθρωπότητα έχουν ήδη μια πλήρη ατζέντα που δεν πρέπει να παραμεριστεί λόγω του hype των πλουσίων. 

Τέταρτον , θα ενισχύσει ο κανονισμός την υπάρχουσα δυναμική και τα ολιγοπώλια ισχύος; Όταν οι Big Tech ζητούν να ρυθμιστεί, πρέπει να ρωτήσουμε εάν αυτοί οι κανονισμοί θα μπορούσαν να ενισχύσουν ακόμα περισσότερο τη δύναμη των Big Tech. Για παράδειγμα, έχουμε δει πολλές προτάσεις που θα επέτρεπαν στις ρυθμιστικές αρχές να ελέγχουν και να αδειοδοτούν μοντέλα, προγράμματα και υπηρεσίες τεχνητής νοημοσύνης. Η κρατική αδειοδότηση είναι το είδος του βάρους που μπορούν εύκολα να ανταποκριθούν οι μεγάλοι παίκτες ενώ οι μικρότεροι ανταγωνιστές και οι μη κερδοσκοπικοί οργανισμοί, όχι και τόσο. Πράγματι, θα μπορούσε να είναι απαγορευτικό για ανεξάρτητους προγραμματιστές ανοιχτού κώδικα. Δεν πρέπει να υποθέσουμε ότι οι άνθρωποι που μας έχτισαν αυτόν τον κόσμο μπορούν να διορθώσουν τα προβλήματα που βοήθησαν να δημιουργηθούν. Αν θέλουμε μοντέλα τεχνητής νοημοσύνης που δεν αναπαράγουν υπάρχουσες κοινωνικές και πολιτικές προκαταλήψεις, πρέπει να αφήσουμε αρκετό χώρο για να τα δημιουργήσουν νέοι παίκτες.

Πέμπτον , είναι ο προτεινόμενος κανονισμός αρκετά ευέλικτος ώστε να προσαρμοστεί σε μια ταχέως εξελισσόμενη τεχνολογία; Η τεχνολογία συχνά αλλάζει πολύ πιο γρήγορα από τον νόμο και αυτές οι αλλαγές μπορεί να είναι δύσκολο να προβλεφθούν. Ως αποτέλεσμα, ο σημερινός λογικός κανόνας μπορεί εύκολα να γίνει το αδύναμο σημείο ασφάλειας του αύριο. Το χειρότερο, το κλείδωμα σε συγκεκριμένες τεχνολογίες μπορεί να αποτρέψει την άνθηση νέων και καινοτόμων τεχνολογιών και, πάλι, να δώσει στους σημερινούς νικητές τη δυνατότητα να εμποδίσουν τους μελλοντικούς ανταγωνιστές να μας προσφέρουν ένα καλύτερο εργαλείο ή προϊόν. 

Έκτον, θα μετριάσει πραγματικά ο νόμος τη ζημιά που στοχεύει; Αυτή η ερώτηση παραβλέπεται πολύ συχνά. Για παράδειγμα, υπήρξαν αρκετές προτάσεις για την απαίτηση από τους χρήστες και τους προγραμματιστές της τεχνητής νοημοσύνης να  “βάλουν υδατογραφήματα».” τα έργα που παράγουν. Υποθέτοντας ότι αυτό είναι τεχνικά δυνατό (μπορεί να είναι πιο δύσκολο να γίνει αυτό για μουσική, ας πούμε, παρά για εικόνες), η ιστορία υποδηλώνει ότι δεν θα είναι πολύ αποτελεσματικό έναντι των χρήσεων για τις οποίες μπορεί να ανησυχούμε περισσότερο. Η “συμβουλευτική” υδατοσήμανση από προεπιλογή, όπως η αυτόματη εισαγωγή μερικών χρωματιστών τετραγώνων στη γωνία μιας εικόνας από το DALL-E, μπορεί να σας βοηθήσει να υποδείξετε ότι δημιουργήθηκε από AI, έτσι ώστε το άτομο που το μοιράζεται να μην εξαπατά άθελά του. Αλλά αυτά τα υδατογραφήματα μπορούν εύκολα να περικοπούν από τους πιο εξελιγμένους απατεώνες που ίσως θέλουμε πραγματικά να αποτρέψουμε. Και η «αντίπαλη» υδατογράφηση, όπου το μοντέλο τεχνητής νοημοσύνης δημιουργεί ένα υδατογράφημα που είναι τόσο βαθιά ενσωματωμένο στην έξοδο που δεν μπορεί να αφαιρεθεί, έχει σχεδόν πάντα ηττηθεί στην πράξη. Εν ολίγοις, η υδατογράφηση μπορεί να έχει κάποια οφέλη, αλλά είναι αναπόφευκτα ένα παιχνίδι γάτας και ποντικιού. Εάν στοχεύουμε σε σοβαρές βλάβες από άτομα με κίνητρα, χρειαζόμαστε στρατηγικές που λειτουργούν.  

Τέλος, πώς επηρεάζει άλλα δημόσια συμφέροντα (πέρα από τα θέματα ανταγωνισμού που τέθηκαν παραπάνω); Για παράδειγμα, υπάρχει πολλή ρητορική σχετικά με τους κινδύνους να επιτρέπεται η ανάπτυξη τεχνητής νοημοσύνης ανοιχτού κώδικα σε σύγκριση με κλειστά συστήματα όπου μια κεντρική αρχή μπορεί να ελέγξει τι μπορούν και τι δεν μπορούν να κάνουν οι χρήστες. Έχουμε δει αυτή την ταινία στο παρελθόν — τα ανοιχτά συστήματα δέχονται συχνά επίθεση με αυτόν τον ισχυρισμό, ειδικά από εκείνους που επωφελούνται από έναν κλειστό κόσμο. Ακόμη και λαμβάνοντας την ανησυχία στην ονομαστική αξία, αν και είναι δύσκολο να δούμε πώς η κυβέρνηση μπορεί να ρυθμίσει τη χρήση και την ανάπτυξη χωρίς να περιορίσει την ελευθερία έκφρασης και το δικαίωμα πρόσβασης σε νέες πληροφορίες και τέχνη. Στις ΗΠΑ, τα δικαστήρια έχουν από καιρό αναγνωρίσει ότι ο κώδικας είναι ομιλία και η αστυνόμευση της ανάπτυξής του μπορεί να παραβιάζει την Πρώτη Τροποποίηση. 

Γενικότερα, όπως δεν θα ανεχόμασταν έναν νόμο που επιτρέπει στην κυβέρνηση να ελέγχει την πρόσβαση και τη χρήση τυπογραφικών πιεστηρίων, θα πρέπει να ανησυχούμε μήπως δώσουμε σε οποιαδήποτε κεντρική αρχή την εξουσία να ελέγχει την πρόσβαση σε παραγωγικά εργαλεία τεχνητής νοημοσύνης και, πιθανώς, να αποφασίσει εκ των προτέρων τι είδους μπορεί να επιτραπεί να δημιουργήσουν αυτά τα εργαλεία. Επιπλέον, η τοποθέτηση ελέγχων στην ανάπτυξη ανοιχτού κώδικα σε ορισμένες χώρες μπορεί απλώς να διασφαλίσει ότι οι προγραμματιστές σε άλλες χώρες έχουν καλύτερες ευκαιρίες για μάθηση και καινοτομία. 

Άλλες προτάσεις που έχουν σχεδιαστεί για να εξασφαλίσουν αμοιβή για δημιουργούς των οποίων τα έργα περιλαμβάνονται σε δεδομένα εκπαίδευσης, όπως ένα νέο καθεστώς αδειοδότησης πνευματικών δικαιωμάτων, θα μπορούσαν να καταστήσουν την κοινωνικά πολύτιμη έρευνα που βασίζεται στη μηχανική μάθηση και ακόμη και στην εξόρυξη δεδομένων απαγορευτικά περίπλοκη και δαπανηρή (υποθέτοντας ότι ένα τέτοιο καθεστώς ήταν ακόμη και διοικητικά δυνατό δεδομένων των δισεκατομμυρίων έργων που ενδέχεται να χρησιμοποιηθούν και της δυσκολίας παρακολούθησης αυτών των χρήσεων). 

Έχουμε μεγάλη συμπάθεια για τους δημιουργούς που αγωνίζονται να αποζημιωθούν σωστά για τη δουλειά τους. Αλλά πρέπει να αναζητήσουμε τρόπους για να διασφαλίσουμε δίκαιες αμοιβές που δεν περιορίζουν τη δυνατότητα για όλη την ανθρωπότητα να επωφεληθεί από πολύτιμες δευτερεύουσες χρήσεις. Διαπραγματεύσεις συμβάσεων  όπως της Ένωσης Συγγραφέων της Αμερικής με τα κινηματογραφικά στούντιο τα στούντιο προσφέρουν ένα μοντέλο: το υλικό που δημιουργείται από την τεχνητή νοημοσύνη δεν μπορεί να χρησιμοποιηθεί για να αντικαταστήσει έναν άνθρωπο συγγραφέα. Συγκεκριμένα, το υλικό που δημιουργείται από την τεχνητή νοημοσύνη δεν μπορεί να χαρακτηριστεί ως υλικό πηγής για προσαρμογή με οποιονδήποτε τρόπο και εάν ένα στούντιο θέλει να χρησιμοποιήσει ένα σενάριο που δημιουργήθηκε από AI, δεν μπορεί να υπάρχει πιστωμένος συγγραφέας και, επομένως, κανένα πνευματικό δικαίωμα. Σε έναν κόσμο όπου τα στούντιο διαφυλάσσουν ζηλότυπα τα δικαιώματα στη δουλειά τους, αυτό είναι ένα σημαντικό μειονέκτημα. Σύμφωνα με αυτήν την πρόταση, τα στούντιο πρέπει να επιλέξουν μεταξύ του προκαταβολικού κόστους της πληρωμής ενός συγγραφέα ό,τι αξίζει και του κόστους υποστήριξης της μη κατοχής πνευματικών δικαιωμάτων στο απόλυτο έργο.

Αυτά είναι ερωτήματα που πρέπει να θέσουμε στους περισσότερους νομοθέτες, ως μέρος μιας ενδελεχούς εκτίμησης επιπτώσεων. 

Πηγή άρθρου: https://www.eff.org/

Leave a Comment