Την περασμένη δεκαετία περάσαμε μεγάλο μέρος του χρόνου μας στον ψηφιακό κόσμο – έναν κόσμο που ελέγχεται όλο και περισσότερο από μια χούφτα ομίλων επιχειρήσεων. Οι επιχειρήσεις αυτές αποφασίζουν σε μεγάλο βαθμό τι μπορούμε να δούμε και να πούμε και ποια εργαλεία έχουμε στη διάθεσή μας.
Jillian C. York
Σε ό,τι αφορά τις εικόνες στο Διαδίκτυο, υπάρχουν τρία πεδία που ελέγχονται. Πρώτον, ελέγχεται το τι μπορούμε να δούμε. Τόσο οι επιχειρήσεις όσο και οι κυβερνήσεις περιορίζουν την πρόσβαση σε διάφορες κατηγορίες περιεχομένου, από το γυμνό ανθρώπινο σώμα μέχρι τις φωτογραφίες ή τα βίντεο που περιέχουν προσωπικά δεδομένα. Έτσι, το Instagram λογοκρίνει το σεξουαλικό περιεχόμενο, ενώ το Twitter απαγόρευσε πρόσφατα την κοινοποίηση ιδιωτικών φωτογραφιών και βίντεο χωρίς τη συγκατάθεση των εικονιζόμενων προσώπων. Οι περιορισμοί αυτοί είναι ίσως δικαιολογημένοι, αλλά μπορεί και να έχουν αρνητικές συνέπειες για τους ανθρώπους που χρησιμοποιούν τις συγκεκριμένες πλατφόρμες έχοντας πιθανόν θεμιτούς λόγους να θέλουν να κοινοποιήσουν κάτι.
Δεύτερον, δημοφιλείς πλατφόρμες όπως το Snapchat, το Instagram και το TikTok, προσφέρουν φίλτρα που παραποιούν τις εικόνες μας – συχνά και την αυτο-εικόνα μας. Για τα φίλτρα αυτά ασκήθηκε ήδη δριμεία κριτική από κοινοβουλευτικούς εκπροσώπους και από ψυχολόγους, γιατί επηρεάζουν με κρίσιμο τρόπο την εικόνα που έχουμε για το σώμα μας και μας υπαγορεύουν συγκεκριμένα πρότυπα ομορφιάς. Εάν κυριαρχήσουν αυτά τα πρότυπα, ενδέχεται να προκύψει και μια ορισμένη προσδοκία για την εμφάνιση που πρέπει να έχουμε. Όποιος δεν ανταποκρίνεται σε αυτήν, μπορεί να πέσει θύμα προκαταλήψεων και διακρίσεων.
Η τρίτη και ίσως πιο ανησυχητική πτυχή είναι το πώς οι επιχειρήσεις μάς παρέχουν αποτελέσματα αναζήτησης ή ροές περιεχομένου με τη βοήθεια αλγορίθμων. Η μέθοδος που εφαρμόζεται εδώ έχει μια «ύπουλη» επίδραση στην κατάταξη και την παρουσίαση ειδικά των εικόνων: Οι αλγόριθμοι ταξινομούν κατά κανόνα τις εικόνες με τρόπους που εμπεριέχουν διακρίσεις, προκαταλήψεις ή απλώς είναι λανθασμένοι – κάτι που μπορεί να έχει σοβαρές συνέπειες για τους ανθρώπους οι οποίοι χρησιμοποιούν αυτές τις πλατφόρμες.
Έτσι, το 2015 η τεχνολογία αναζήτησης εικόνων της Google κατέταξε λανθασμένα μαύρους ανθρώπους ως γορίλες. Κι ενώ κατά τα φαινόμενα το περιστατικό δεν έγινε σκόπιμα, είναι ωστόσο ένα παράδειγμα για το πώς οι αλγόριθμοι εξασκούνται με δεδομένα που δίνουν προβληματικά αποτελέσματα. Οι αλγόριθμοι μπορεί να είναι μια σειρά αμιγώς μαθηματικών εντολών, αλλά τροφοδοτούνται με δεδομένα που έχουν δημιουργηθεί από ανθρώπους – συνεπώς, τροφοδοτούνται και με τις προκαταλήψεις και την άγνοια των εν λόγω υπευθύνων. Ένας αλγόριθμος μηχανικής μάθησης είναι συνήθως ένα μαύρο κουτί και παραμένει ασαφές το πώς καταλήγει στις επιλογές του – με αποτέλεσμα ο άνθρωπος που είναι μπροστά στην οθόνη να μην μπορεί να καταλάβει αν ένα λάθος έχει γίνει εξαιτίας του ρατσισμού που εσκεμμένα ενσωματώθηκε στον κώδικα ή απλώς εξαιτίας ενός κακού συνδυασμού δεδομένων. Και επειδή οι επιχειρήσεις αρνούνται τις πιο πολλές φορές να δημοσιοποιήσουν τις βασικές παραδοχές στις οποίες βασίζονται οι τεχνολογίες και τα σύνολα δεδομένων τους, είναι αδύνατον να αποτραπούν τέτοια σφάλματα από τρίτα μέρη.
Ιστορίες σαν αυτήν αποκτούν δημοσιότητα πολύ γρήγορα. Αισθητά πιο δύσκολο είναι να αποκαλυφθούν στο ευρύ κοινό οι συνέπειες της εκτεταμένης χρήσης Τεχνητής Νοημοσύνης στην επεξεργασία του user generated content, δηλαδή του περιεχομένου που δημιουργείται από άτομα τα οποία δεν υπάγονται σε κάποια επωνυμία ή επιχείρηση: Τα περισσότερα λάθη αυτής της τεχνολογίας δεν μπορούμε να τα δούμε – πόσω μάλλον να διαπιστώσουμε σε τι ή σε ποιον οφείλονται.
Ο πρώην content moderator Andrew Strait γράφει στο βιβλίο Fake AI που κυκλοφόρησε πρόσφατα: «Τα συστήματα αυτά πολύ απλά δεν έχουν καμία δυνατότητα αναγνώρισης των αποχρώσεων και των συμφραζομένων του διαδικτυακού λόγου. Γι’ αυτό και αποτυγχάνουν συνήθως όταν καλούνται να διαπιστώσουν αν ένα βίντεο θίγει δικαιώματα πνευματικής ιδιοκτησίας ή εάν αποτελεί μια νόμιμη παρωδία, αν μια ανάρτηση που εμπεριέχει ρατσιστική εξύβριση έχει συνταχθεί από το θύμα αυτού του εγκλήματος μίσους ή από τον θύτη».
Το τυφλό σημείο της Τεχνητής Νοημοσύνης
Ένα εύγλωττο, επαρκώς τεκμηριωμένο παράδειγμα είναι η ζημιά που κάνει η Τεχνητή Νοημοσύνη όταν καλείται να αναγνωρίσει και να αφαιρέσει εξτρεμιστικό και τρομοκρατικό περιεχόμενο – ειδικά εικόνες. Με την υποστήριξη των κυβερνήσεων σε όλο τον κόσμο, τα τελευταία χρόνια οι διαδικτυακές πλατφόρμες έβαλαν στόχο να εξαλείψουν το εξτρεμιστικό και τρομοκρατικό περιεχόμενο. Στην προσπάθειά τους αυτή, βασίζονται όλο και περισσότερο σε αλγόριθμους μηχανικής μάθησης, οι οποίοι πρέπει να εντοπίσουν και να απομακρύνουν περιεχόμενο με την αντίστοιχη περιγραφή. Όμως, τα χαρακτηριστικά που χρησιμοποιούνται ακολουθούν συχνά ένα σχήμα «είτε… είτε» (δυαδικός περιορισμός) και άρα δεν αφήνουν μεγάλα περιθώρια για τα συμφραζόμενα. Αν μια εικόνα περιέχει σύμβολα που συνδέονται με μια γνωστή τρομοκρατική ομάδα, η Τεχνητή Νοημοσύνη την κατατάσσει στο τρομοκρατικό περιεχόμενο – ακόμη και αν ο λόγος για την ύπαρξη των συμβόλων αυτών είναι καλλιτεχνικής φύσης ή εάν στην πραγματικότητα εξυπηρετούν τη διαμαρτυρία κατά της αντίστοιχης ομάδας. Με τον ίδιο τρόπο επισημαίνεται περιεχόμενο που έχει ιστορικούς, αρχειακούς ή σχετικούς με τα ανθρώπινα δικαιώματα σκοπούς, το οποίο στη συνέχεια πολύ συχνά αφαιρείται. Όταν κανείς επιλέγει να λύσει με την τεχνολογία ένα πρόβλημα που προϋποθέτει τόσο λεπτούς χειρισμούς, τα αποτελέσματα θα είναι χονδροειδή και θα έχουν παραβλεφθεί σημαντικές μορφές έκφρασης.
Τόσο στις διαδικασίες αναζήτησης όσο και στην αυτοματοποιημένη επεξεργασία περιεχομένου η χρησιμότητα –ή η «ευφυΐα» – της Τεχνητής Νοημοσύνης αντιστοιχεί πάντα σε εκείνη των δεδομένων στα οποία βασίζεται. Ωστόσο, τα δεδομένα αυτά μπορεί κάλλιστα να περιέχουν ανθρώπινα σφάλματα και ανθρώπινες προκαταλήψεις. Όταν, επομένως, θέλουμε να καταπολεμήσουμε τις διακρίσεις χρησιμοποιώντας σύνολα δεδομένων, πρέπει να δούμε πώς αυτά συγκροτήθηκαν. Πρέπει να γνωρίζουμε τις βασικές παραδοχές και προδιαθέσεις με τις οποίες οι άνθρωποι δημιούργησαν αυτά τα σύνολα δεδομένων, παραδοχές και προδιαθέσεις που υπαγορεύουν όλο και περισσότερο τι βλέπουμε και σε ποια μορφή.
Η διαφάνεια μάς βοηθά τουλάχιστον να κατανοήσουμε καλύτερα το πρόβλημα και να αντιμετωπίσουμε συγκεκριμένα σφάλματα. Παρ’ όλα αυτά, πρέπει και ως κοινωνία να αρχίσουμε να θέτουμε γενικότερα ερωτήματα για τον ρόλο αυτών των τεχνολογιών στην καθοδήγηση της κοσμοαντίληψής μας. Επομένως, πρέπει να πάψουμε να βλέπουμε την Τεχνητή Νοημοσύνη ως κάτι ουδέτερο και να συνειδητοποιήσουμε την εγγενώς πολιτική φύση της χρήσης της.
Ένα εξαιρετικό σχετικό παράδειγμα είναι η χρήση της Τεχνητής Νοημοσύνης στον αγώνα ενάντια στον εξτρεμισμό. Οι κατευθυντήριες γραμμές που ακολουθεί η χρήση της Τεχνητής Νοημοσύνης σε αυτό το πλαίσιο είναι αναμφίβολα πολιτικές. Με απλά λόγια: Κάνουν τη διάκριση ανάμεσα στην αποδεκτή (κρατική) βία και στη βία (ορισμένων) μη κρατικών δρώντων. Σαφώς και υπάρχουν λόγοι που συνηγορούν υπέρ της αφαίρεσης βίαιου περιεχομένου. Ωστόσο, οι υποκείμενες κατευθυντήριες γραμμές δεν ασχολούνται μόνο με τις απεικονίσεις βίας αλλά και με οτιδήποτε μπορεί να συνδεθεί με ομάδες τις οποίες μια επιχείρηση ή μια κυβέρνηση θεωρεί εξτρεμιστικές. Εξού και το τελικό αποτέλεσμα δεν είναι μόνο ο περιορισμός της ζημίας αλλά η πλήρης διαγραφή.
Από τη διαδικτυακή ασφάλεια στην πλήρη διαγραφή
Υπάρχουν πολλά ακόμη παραδείγματα. Ας πούμε, με πρόσχημα τη «διαδικτυακή ασφάλεια» αφαιρέθηκε η δυνατότητα της σεξουαλικής έκφρασης. Αλλά και η αναγνώριση της εσφαλμένης ενημέρωσης ή της παραπληροφόρησης εκτελείται κατά κύριο λόγο από μια Τεχνητή Νοημοσύνη τα σύνολα δεδομένων της οποίας ακολουθούν εγγενώς πολιτικές κατευθυντήριες γραμμές. Σε όλα αυτά τα παραδείγματα, οι κατευθυντήριες γραμμές μπορεί να είναι γνωστές, αλλά το ποσοστό λάθους όχι, στις περισσότερες περιπτώσεις. Με άλλα λόγια: Μπορούμε μεν να αναλύσουμε τις κατευθυντήριες γραμμές και να αγωνιστούμε για τροποποιήσεις, αλλά δεν είμαστε σε θέση να δούμε και να κατανοήσουμε πόσο συχνά νόμιμες εκφράσεις (οι οποίες, στην πραγματικότητα, δεν υπόκεινται σε περιορισμούς) εντοπίζονται και απομακρύνονται από την Τεχνητή Νοημοσύνη με ελάχιστο ή και καθόλου έλεγχο.
Τι πρέπει να κάνουμε λοιπόν, εκτός από το να αναγνωρίσουμε την πολιτική φύση της χρήσης της Τεχνητής Νοημοσύνης και να παλέψουμε για περισσότερη διαφάνεια; Να αποδεχτούμε απλώς το γεγονός ως τη νέα μας πραγματικότητα; Ή μήπως έχουμε άλλες δυνατότητες παρέμβασης για να αλλάξουμε την εξέλιξη της λεγόμενης προόδου;
Στο καινούργιο μου βιβλίο με τίτλο Silicon Values: The Future of Free Speech Under Surveillance Capitalism γράφω ότι εξακολουθεί να εναπόκειται σε μας το να διαμορφώσουμε το μέλλον μας. Το νέο Zeitgeist δεν πρέπει να το δεχτούμε ως δεδομένο. Πολύ περισσότερο πρέπει να επιμείνουμε ώστε «οι αποφάσεις για το τι επιτρέπεται να εκφράσουμε χρειάζονται περισσότερη ανθρώπινη προσοχή και αφοσίωση, και δεν πρέπει να αφήνονται στο έλεος της αυθαιρεσίας φορέων και αλγορίθμων που δεν είναι υπόλογοι σε κανέναν».
Αυτό σημαίνει ότι δεν πρέπει να αρκεστούμε στον απλό περιορισμό της ζημίας, αλλά πρέπει να αναδιαμορφώσουμε, να προσαρμόσουμε και ενδεχομένως ακόμη και να καταργήσουμε αυτά τα τεχνολογικά συστήματα.
Συντακτρια
Η Jillian C. York είναι η συγγραφέας του Silicon Values: The Future of Free Speech Under Surveillance Capitalism [Silicon Values: Το μέλλον της ελευθερίας της έκφρασης στον καπιταλισμό της επιτήρησης] και διευθύντρια για τη διεθνή ελευθερία της έκφρασης στο Electronic Frontier Foundation.
Μετάφραση: Πελαγία Τσινάρη
Copyright: Κείμενο: Goethe-Institut, Jillian C. York.
Το κείμενο χορηγείται με άδεια Creative Commons Αναφορά Δημιουργού – Μη Εμπορική Χρήση – Παρόμοια Διανομή 3.0 Διεθνές .
Πηγή άρθρου: https://www.goethe.de/