ΕΛ/ΛΑΚ | creativecommons.gr | mycontent.ellak.gr |
freedom

Έρχεται η πληροφοριακή Αποκάλυψη των deepfakes;

Ως «deepfakes» («πλαστά» σε ελεύθερη μετάφραση) νοούνται τα αρχεία εικόνας και ήχου στα οποία εμφανίζονται ή ακούγονται άνθρωποι να κάνουν και να λένε πράγματα τα οποία ουδέποτε έκαναν ή είπαν. Η επιτυχία αυτών περικλείεται στην ορολογία που τους έχουν αποδώσει διάφοροι ειδικοί, οι οποίοι τα αποκαλούν «συνθετικά μέσα». Δηλαδή, αυτού του είδους τα «ντοκουμέντα» περιλαμβάνουν σχεδόν ισόποσες δόσεις αλήθειας και ψεύδους.

Από μισή αλήθεια μπορείς να κατασκευάσεις ένα ολόκληρο ψέμα.

Όπως φαίνεται, με τη σημερινή και τη μελλοντική τεχνολογία, με τα λογισμικά, τους υπολογιστές και τις «έξυπνες συσκευές», το πλαστό θα γίνει η πραγματικότητά μας. Και αν τα fake news με τα hoaxes έχουν ήδη παίξει αποφασιστικό ρόλο σε εκλογικές αναμετρήσεις, φανταστείτε τι μπορεί να συμβεί με τα deepfakes.

Ή, μάλλον, δε χρειάζεται καν να το φανταστείτε. Δείτε για παράδειγμα τι συνέβη στη Γκαμπόν, όπου με τη μακρά απουσία του πρόεδρου της χώρας από τη δημοσιότητα κυκλοφόρησε ένα deepfake που έλεγε πως ο πρόεδρος έχει πεθάνει, με αποτέλεσμα οι στρατιωτικοί να προχωρήσουν σε ένα (αποτυχημένο) πραξικόπημα.

Πολύ πρόσφατα πάλι, σύμφωνα με τη Wall Street Journal, Βρετανός διευθυντής τράπεζας έπεσε θύμα ενός deepfake ηχητικού και, νομίζοντας πως συνομιλεί με τον διευθυντή μιας μεγάλης Ουγγρικής εταιρείας, ενέκρινε την αποστολή 250.000 λιρών (η τεχνική αυτή ονομάζεται «συνθετική φωνητική πλαστοπροσωπεία»).

Φυσικά, πολύ πριν από αυτά, τα deepfakes είχαν (εξακολουθούν να έχουν) την τιμητική τους σε σελίδες πορνογραφικού περιεχομένου και σχετικά, όπως το εκδικητικό βίντεο που έδειχνε την Ινδή δημοσιογράφο Rana Ayyub, επειδή εκείνη ερευνούσε την υπόθεση βιασμού και δολοφονίας ενός ανήλικου κοριτσιού από το Κασμίρ. Η λίστα είναι, βέβαια, ακόμα μεγαλύτερη και περιλαμβάνει πολιτικούς, επιχειρηματίες και άλλους.

Απενοχοποιημένη απάτη;

Σε όλα αυτά παρατηρείται η ίδια τακτική με τα fake news, που στην αρχή ξεκίνησαν ως χιουμοριστικά και στην πορεία εξελίχθηκαν σε κάτι πιο τρομακτικό, που μπορεί να χειραγωγεί την κοινή γνώμη και να επιφέρει κοινωνικές, πολιτικές και οικονομικές ανακατατάξεις.

Αυτό το σημειώνουμε επειδή και τα deepfakes πρωτοεμφανίστηκαν με διάφορα χιουμοριστικά βιντεάκια και απενοχοποιήθηκαν με την εφαρμογή Doublicat, με την οποία μπορεί οποιοσδήποτε να φτιάξει gifs, βάζοντας το πρόσωπό του ή ένα άλλο στο σώμα κάποιου ηθοποιού ή άλλης διασημότητας. Κάτι αντίστοιχο μα λίγο πιο χαμηλής ποιότητας είναι το γνωστό «FakeApp».

Και αν, αρχικά, απαιτούνταν κόπος και χρόνος ούτως ώστε να προκύψει ένα αληθοφανές αποτέλεσμα, αυτό έχει, πλέον, αλλάξει και είναι ιδιαίτερα εύκολο, απλό και κυρίως φθηνό, ενώ είναι βέβαιο πως όσο περνάει ο καιρός θα εξελίσσεται ακόμα περισσότερο.

Διαδικτυακές πολυεθνικές, όπως το Facebook και η Google, δημιούργησαν λογισμικά σαν το «Deepfake Detection Challenge» για την εξακρίβωση των deepfake βίντεο. Εντούτοις, στην πράξη τα αποτελέσματα δεν είναι τόσο καλά, αφού στην ουσία ερευνώνται μετά τις αντιδράσεις των προσώπων που έχουν πέσει θύματα αυτών.

Ακόμα χειρότερα, αν κάποιος ανεβάσει ένα τέτοιο βίντεο με σκοπό να προειδοποιήσει πως είναι πλαστό, μπορεί να πέσει θύμα του αλγόριθμου με αποτέλεσμα το ban (ομολογουμένως η Google τα πάει καλύτερα από το Facebook σε αυτόν τον τομέα). Χαρακτηριστικό παράδειγμα αποτελεί ένα βίντεο με τον Obama που ανέβηκε από έναν λογαριασμό ονόματι «Buzzfeed» στο YouTube, που όμως στο Facebook «έφαγε πόρτα» στις αρχές.

Ο θάνατος της κριτικής σκέψης

Ίσως κάποιοι πουν πως το μόνο που χρειάζεται στην τελική είναι κριτική σκέψη και λογικοί συνειρμοί. Όπως για παράδειγμα το ποιος δημοσίευσε κάποιο βίντεο, το αν υπάρχει πηγή, το αν το εικονιζόμενο πρόσωπο λέει ή κάνει κάτι που ποτέ δεν θα έλεγε και έκανε (τουλάχιστον δημόσια), και τέλος, φυσικά, το ποιος μπορεί να επωφελείται από κάτι τέτοιο.

Όμως, το είπαμε και πιο πάνω. Η κριτική σκέψη απουσιάζει από πλήθος συνανθρώπων μας. Επειδή θέλουν να πιστέψουν κάτι τέτοιο, επειδή τους το επιβάλλει η δική τους κοσμοθεωρία, επειδή είναι κοινωνικά και τεχνολογικά αναλφάβητοι, και για μια σωρεία ακόμα λόγων. Πάνω-κάτω είναι η ίδια επιχειρηματολογία με αυτή προηγούμενων δεκαετιών: «μα το είπε η τηλεόραση». Έτσι και τώρα με τα διάφορα βίντεο, οι άνθρωποι αυτοί θεωρούν πως είναι ντοκουμέντα και λίγο πολύ συντάσσονται σαν αυτόπτες.

Ακόμα και εμφανή (τεχνικά) πράγματα σε ένα deepfake βίντεο, όπως για παράδειγμα ο αποχρωματισμός του προσώπου ή του σώματος, ο φωτισμός και οι σκιάσεις, ακόμα και ο κακός συγχρονισμός, δε μπορούν να προσδιοριστούν από τους ανθρώπους για τους λόγους που αναφέραμε μία παράγραφο πριν.

Μια πολύ χαρακτηριστική περίπτωση αυτού είναι το πασίγνωστο βίντεο με τον Donald Trump να απευθύνεται στη βελγική κοινή γνώμη για την κλιματική αλλαγή, λέγοντας πως αποσύρει τις ΗΠΑ από τη Συμφωνία του Παρισιού και τελειώνοντας με τη φράση «το ίδιο θα πρέπει να πράξετε και εσείς» (το Βέλγιο).

Αυτό, όμως, ήταν ένα προσαρμοσμένο βίντεο που δημιουργήθηκε από πολιτικό κόμμα και είχε ως αποτέλεσμα να ξεσπάσει κατακραυγή στο Βέλγιο για την παρέμβαση του Αμερικανού προέδρου. Αν και η αλήθεια αποκαλύφθηκε εκ των υστέρων και έπειτα από διπλωματικές παρεμβάσεις, την είχαν πατήσει αναρίθμητα ΜΜΕ σε ολόκληρο τον κόσμο και η «είδηση» διαδιδόταν σαν αστραπή, ενώ μεγάλο μέρος του βελγικού λαού είχε ήδη χειραγωγηθεί.

Οι ιθύνοντες, δε, του εν λόγω πολιτικού κόμματος είπαν πως ανέθεσαν τη δημιουργία αυτού του βίντεο σε μια εταιρεία παραγωγής, η οποία αξιοποίησε έναν κλάδο της Τεχνητής Νοημοσύνης που ονομάζεται «Μηχανική Μάθηση». ΠληροφορίαΤο «Machine Learning» είναι ένας νέος τομέας της επιστήμης των υπολογιστών, ο οποίος αναπτύχθηκε με τον συνδυασμό της μελέτης αναγνώρισης προτύπων και της υπολογιστικής θεωρίας μάθησης στην Τεχνητή Νοημοσύνη.

Μιλώντας όσο πιο απλοϊκά γίνεται, η τεχνική είναι απλή: ένα άτομο εκφωνεί τα επιθυμητά (fake) λόγια και στη συνέχεια οι κινήσεις των χειλιών του επικαλύπτουν αυτά του προσώπου το οποίο εμφανίζεται στο βίντεο. Αυτό είναι ένας γενετικός αλγόριθμος με το αρτικόλεξο «GAN».

Δικαιολογήθηκαν, μάλιστα, ισχυριζόμενοι πως αυτό το έκαναν για να τραβήξουν την προσοχή της κοινής γνώμης και πως περίμεναν ότι οι άνθρωποι θα το καταλάβαιναν λόγω της κακής ποιότητας του βίντεο και του συγχρονισμού του ήχου με τα χείλη του Αμερικανού προέδρου. Αυτό όμως δε συνέβη, τουλάχιστον από την πλειονότητα, όπως γίνεται και με αναρίθμητα deepfake βίντεo κάθε είδους περιεχομένου.

Εδώ, αν το αναλύσουμε λίγο, θα δούμε και τις δόσεις αλήθειας/ψεύδους που προαναφέρθηκαν. Δηλαδή, κανείς δε θα αμφισβητούσε την εμπλοκή των ΗΠΑ στα εσωτερικά άλλου κράτους, ούτε θα φαινόταν παράταιρο το παραλήρημα του μισότρελου ανθρώπου που έχει τον τίτλο του «πλανητάρχη».

Ψηφιακό κουκλοθέατρο με επικίνδυνες συνέπειες

Ερευνητικά κέντρα σε πολλά πανεπιστήμια ασχολούνται με το θέμα και έχουν δημιουργήσει με τον αλγόριθμο GAN πολλά δείγματα με deepfake βίντεο και φωτογραφίες από ευρέως αναγνωρίσιμα πρόσωπα. Η ομάδα του πανεπιστημίου του Stanford, δε, το έχει βαφτίσει «τεχνολογία του κουκλοθέατρου».

Αν και όλοι αυτοί οι ερευνητές γνωρίζουν και παραδέχονται πως αυτές οι τεχνολογίες που αναπτύσσουν θα έχουν επιπλοκές στις ζωές των ανθρώπων, δικαιολογούνται πως σκοπός τους είναι η βελτίωση της ψυχαγωγίας, με προεξέχοντες τομείς τα video games και τη βιομηχανία του θεάματος. Αυτό, όμως, είναι ένας ακόμα κρίκος σε μια σειρά από «εξαίσιες» αμεσομελλοντικές τεχνολογίες που, όπως έχουμε δει μέχρι τώρα, φέρνουν ένα δυστοπικό παρόν και ένα ακόμα πιο τρομακτικό μέλλον.

Tο πρόβλημα δεν είναι απαραίτητα η τεχνολογία GAN. Το πρόβλημα είναι ότι οι κακόβουλοι παράγοντες έχουν επί του παρόντος υπερβολικό πλεονέκτημα και δεν υπάρχουν λύσεις για την αντιμετώπιση της αυξανόμενης απειλής. Ωστόσο, υπάρχουν πολλές λύσεις και νέες ιδέες στην κοινότητα AI για την καταπολέμηση αυτής της απειλής. Όμως, η λύση πρέπει να είναι πρώτα οι άνθρωποι.

Ben Lamm – CEO AI Hypergiant Industries

Οι προεκτάσεις του φαινομένου των deepfakes, ασχέτως της βαθμίδας τους (απλοποιημένα, απλουστευμένα, αδύναμα) είναι αμέτρητες και μη προβλέψιμες. Σίγουρα, έχει ξεφύγει από τα αθώα βίντεο προηγούμενων δεκαετιών, που έδειχναν έναν καλλιτέχνη μη ευρισκόμενο στη ζωή να «ερμηνεύει» ένα τραγούδι που είχε γράψει πριν τον θάνατό του, ή ακόμα και από την πρόσφατη περίπτωση της «Tay», της τεχνητής νοημοσύνης της Microsoft που εν μια νυκτί έγινε ρατσιστικό και σεξιστικό τέρας.

Ο πιο εύστοχος χαρακτηρισμός για την όλη κατάσταση είναι το «Infocalypse». Σκεφτείτε κάτι απλό: να κυκλοφορήσουν κάποιοι ένα τέτοιο βίντεο με τον ούτως ή άλλως ημιπαράφρονα «πλανητάρχη» να υποκινεί βία ή πανικό. Πως, άραγε, θα αντιδράσουν άλλες χώρες, αν κρίνουν πως απειλούνται άμεσα;

Μάλλον, το πραγματικό πρόβλημα είναι η περιορισμένη αντίληψη. Στο κάτω-κάτω, θα πρέπει να είναι επιεικώς αθώος κάποιος για να μη διακρίνει πως η κατάσταση των deepfakes διακινείται από ισχυρούς μηχανισμούς και συμφέροντα, όπου δαπανάται πολύ χρήμα για την απόκτηση ακόμα περισσότερων ή πιο μεγάλων συμφερόντων που μπορεί και να επηρεάζουν τη μοίρα εκατομμυρίων ανθρώπων.

Όπως φαίνεται, η αποκάλυψη δε θα έρθει με ζόμπι και πανδημίες μα με ηλεκτρόνια και πηγαίο κώδικα.

Πηγή άρθρου: https://osarena.net/

One thought on “Έρχεται η πληροφοριακή Αποκάλυψη των deepfakes;

Leave a Reply to User Cancel reply