Τα deepfakes και ο νέος πόλεμος παραπληροφόρησης | Foreign Affairs - Hellenic Edition
Secure Connection

Τα deepfakes και ο νέος πόλεμος παραπληροφόρησης

Η επερχόμενη εποχή της μετα-αληθινής γεωπολιτικής

Ένα deepfake που συνδυάζει το πρόσωπο του Nicolas Cage με το κεφάλι του Tucker Carlson. Πανεπιστήμιο στο Albany, SUNY
----------------------------------------------------------------------

Τα deepfakes θα οξύνουν επίσης τους πολέμους παραπληροφόρησης που διαταράσσουν όλο και περισσότερο την εγχώρια πολιτική στις Ηνωμένες Πολιτείες και αλλού. Το 2016, οι χρηματοδοτούμενες από το ρωσικό κράτος εκστρατείες παραπληροφόρησης ήταν ιδιαιτέρως επιτυχείς στην εμβάθυνση των υφιστάμενων κοινωνικών ρηγμάτων στις Ηνωμένες Πολιτείες. Για να αναφέρουμε μόνο ένα παράδειγμα, ψεύτικοι ρωσικοί λογαριασμοί στα μέσα κοινωνικής δικτύωσης ισχυριζόμενοι ότι συνδέονται με το κίνημα Black Lives Matter μοίραζαν εμπρηστικό περιεχόμενο που σχεδιάστηκε για να προκαλέσει φυλετικές εντάσεις. Την επόμενη φορά, αντί για tweets και αναρτήσεις στο Facebook, αυτή η παραπληροφόρηση θα μπορούσε να έρθει με τη μορφή ψεύτικου βίντεο ενός λευκού αστυνομικού που φωνάζει ρατσιστικές προσβολές ή ενός ακτιβιστή του Black Lives Matter που θα κάνει έκκληση για βία.

Ίσως η πιο οξεία απειλή που σχετίζεται με τα deepfakes είναι η πιθανότητα ότι μια καλά τοποθετημένη χρονικά πλαστογραφία θα μπορούσε να επηρεάσει εκλογές. Τον Μάιο του 2017, η Μόσχα επιχείρησε κάτι παρόμοιο. Την παραμονή των γαλλικών εκλογών, Ρώσοι χάκερ προσπάθησαν να υπονομεύσουν την προεκλογική εκστρατεία του Εμμανουέλ Μακρόν με το να δημοσιεύσουν ένα αρχείο κλεμμένων εγγράφων, πολλά από τα οποία ήταν παραποιημένα. Η προσπάθεια αυτή απέτυχε για διάφορους λόγους, συμπεριλαμβανομένου του σχετικά βαρετού χαρακτήρα των εγγράφων και των επιπτώσεων ενός γαλλικού νόμου για τα μέσα ενημέρωσης, που απαγορεύει την εκλογική κάλυψη στις 44 ώρες αμέσως πριν από μια ψηφοφορία. Αλλά στις περισσότερες χώρες, τις περισσότερες φορές, δεν υπάρχει σιγή στα μέσα μαζικής ενημέρωσης, και η φύση των deepfakes δείχνει ότι το ζημιογόνο περιεχόμενο μπορεί να είναι εγγυημένα αισχρό ή και χειρότερο. Ένα πειστικό βίντεο στο οποίο ο Macron φάνηκε να παραδέχεται διαφθορά, που κυκλοφόρησε στα social media μόνο 24 ώρες πριν από τις εκλογές, θα μπορούσε να εξαπλωθεί σαν πυρκαγιά και να αποδειχθεί αδύνατο να ξεσκεπαστεί εγκαίρως.

Τα deepfakes μπορεί επίσης να διαβρώσουν την δημοκρατία με άλλους, λιγότερο άμεσους τρόπους. Το πρόβλημα δεν είναι μόνο ότι τα deepfakes μπορούν να χρησιμοποιηθούν για να προκαλέσουν κοινωνικούς και ιδεολογικούς διχασμούς. Μπορούν να δημιουργήσουν ένα «μέρισμα ψεύδους»: Καθώς οι άνθρωποι συνειδητοποιούν ευρύτερα την ύπαρξη των deepfakes, τα δημόσια πρόσωπα που έχουν καταγραφεί σε πραγματικές καταγραφές κακόβουλης συμπεριφοράς θα το βρουν ευκολότερο να αμφισβητήσουν τα αποδεικτικά στοιχεία εναντίον τους. (Εάν τα deepfakes κυριαρχούσαν κατά τις προεδρικές εκλογές στις ΗΠΑ το 2016, φανταστείτε πόσο ευκολότερο θα ήταν για τον Donald Trump να αμφισβητήσει την αυθεντικότητα της διαβόητης ηχητικής καταγραφής στην οποία καυχιέται για το χούφτωμα γυναικών). Γενικότερα, καθώς το κοινό γίνεται ευαισθητοποιημένο στην απειλή των deepfakes, μπορεί να τείνει να εμπιστεύεται λιγότερο τις ειδήσεις γενικά [6]. Και οι δημοσιογράφοι, από την πλευρά τους, μπορεί να γίνουν πιο επιφυλακτικοί όσον αφορά το να επικαλούνται, πόσω μάλλον να δημοσιεύουν, ηχητικά ή βίντεο των ταχέα εξελισσόμενων γεγονότων, φοβούμενοι ότι τα αποδεικτικά στοιχεία θα αποδειχθούν παραποιημένα.

ΒΑΘΙΑ ΕΠΙΔΙΟΡΘΩΣΗ

Δεν υπάρχει μαγική λύση για την αντιμετώπιση των deepfakes. Υπάρχουν πολλές νομικές και τεχνολογικές προσεγγίσεις -μερικές ήδη υπάρχουσες, άλλες που ενδέχεται να προκύψουν- που μπορούν να συμβάλουν στην άμβλυνση της απειλής. Αλλά τίποτε δεν θα ξεπεράσει το πρόβλημα εντελώς. Αντί για πλήρεις λύσεις, η άνοδος των deepfakes απαιτεί ανθεκτικότητα.

Τρεις τεχνολογικές προσεγγίσεις αξίζουν ιδιαίτερη προσοχή. Η πρώτη αφορά στην εγκληματολογική τεχνολογία, ή την ανίχνευση των πλαστογραφιών με τεχνικά μέσα. Ακριβώς όπως οι ερευνητές βάζουν πολύ χρόνο και προσπάθεια για την δημιουργία αξιόπιστων απομιμήσεων, επίσης, αναπτύσσουν μεθόδους ενισχυμένης ανίχνευσης. Τον Ιούνιο του 2018, οι επιστήμονες υπολογιστών στο Dartmouth και το Πανεπιστήμιο του Albany, SUNY, ανακοίνωσαν [7] ότι είχαν δημιουργήσει ένα πρόγραμμα που ανιχνεύει τα deepfakes με το να αναζητά μη φυσιολογικές κινήσεις των βλεφάρων όταν το υποκείμενο ενός βίντεο ανοιγοκλείνει τα μάτια. Στην κούρσα εξοπλισμών των deepfakes, ωστόσο, αυτές οι πρόοδοι χρησιμεύουν μόνο για την ενημέρωση του επόμενου κύματος καινοτομίας. Στο μέλλον, το GAN θα τροφοδοτείται με εκπαιδευτικά βίντεο που θα περιλαμβάνουν παραδείγματα κανονικού ανοιγο-κλεισίματος των βλεφάρων. Ακόμη και αν προκύψουν εξαιρετικά ικανοί αλγόριθμοι ανίχνευσης, η ταχύτητα με την οποία μπορούν να κυκλοφορήσουν τα deepfakes εντός των μέσων κοινωνικής δικτύωσης θα καταστήσει το ξεσκέπασμά τους μια δύσκολη μάχη. Μέχρι την στιγμή που ο συναγερμός των εγκληματολόγων θα χτυπήσει, η ζημιά μπορεί να έχει γίνει ήδη.

Μια δεύτερη τεχνολογική λύση περιλαμβάνει την εξακρίβωση της ταυτότητας του περιεχομένου προτού καν εξαπλωθεί -μια προσέγγιση που μερικές φορές αναφέρεται ως λύση «ψηφιακής προέλευσης» (digital provenance). Εταιρείες όπως η Truepic αναπτύσσουν τρόπους ψηφιακής υδατογραφίας σε περιεχόμενο ήχου, φωτογραφιών και βίντεο κατά την στιγμή της δημιουργίας του, χρησιμοποιώντας μεταδεδομένα (metadata) που μπορούν να καταγραφούν αμετάβλητα σε έναν διανεμημένο κατάλογο ή blockchain. Με άλλα λόγια, κάποιος θα μπορούσε ουσιαστικά να σφραγίσει το περιεχόμενο με ένα αρχείο αυθεντικότητας που θα μπορούσε να χρησιμοποιηθεί αργότερα ως αναφορά για σύγκριση με ύποπτα [αρχεία] για παραποιήσεις.