Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης | Foreign Affairs - Hellenic Edition
Secure Connection

Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης

Πώς να αμυνθούμε ενάντια στην υπερτροφοδοτούμενη παραπληροφόρηση

Είναι ήδη δύσκολο να γίνει διάκριση μεταξύ των διαδικτυακών ανθρώπινων συνομιλητών και των μηχανών. Ένα πρόσφατο ερευνητικό πρόγραμμα [15] έδειξε ότι ένας πράκτορας τεχνητής νοημοσύνης κατατάχθηκε στο κορυφαίο 10% των συμμετεχόντων σε μια διαδικτυακή έκδοση του κλασικού επιτραπέζιου παιχνιδιού Diplomacy, το οποίο περιλαμβάνει διαπραγματεύσεις με πραγματικούς ανθρώπους για την δημιουργία συμμαχιών. Αν τα σημερινά γλωσσικά μοντέλα μπορούν να εκπαιδευτούν για να πείσουν τους παίκτες να συνεργαστούν σε ένα παιχνίδι, τα μελλοντικά μοντέλα μπορεί να είναι σε θέση να πείσουν τους ανθρώπους να αναλάβουν δράση -να ενταχθούν σε μια ομάδα στο Facebook, να υπογράψουν μια αίτηση, ή ακόμη και να εμφανιστούν σε μια διαδήλωση.

Για να κατανοήσετε το πόσο γρήγορα βελτιώνονται τα γλωσσικά μοντέλα, εξετάστε ένα από τα τελευταία μοντέλα της Google, που ονομάζεται Flan-PaLM. Το μοντέλο μπορεί να απαντήσει σωστά σχεδόν εννέα στις δέκα ερωτήσεις στις εξετάσεις ιατρικής αδειοδότησης των ΗΠΑ (U.S. Medical Licensing Examination). Μπορεί επίσης να κάνει αριθμητική, να απαντήσει σε ερωτήσεις για την φυσική, και να γράψει ποίηση. Αυτά τα συστήματα τεχνητής νοημοσύνης είναι δυνητικά επικίνδυνα εργαλεία στα χέρια των προπαγανδιστών και γίνονται όλο και πιο ισχυρά.

ΚΑΤΑΣΤΡΟΦΕΙΣ ΤΗΣ ΕΜΠΙΣΤΟΣΥΝΗΣ

Θα μπορούσε κανείς εύλογα να αμφισβητήσει την σοβαρότητα της προπαγανδιστικής απειλής που συνιστούν τα γλωσσικά μοντέλα, δεδομένου ότι οι αναλυτές έχουν συχνά υπερτιμήσει τις νέες τεχνολογίες στον τομέα της εθνικής ασφάλειας. Άλλωστε, οι σχολιαστές έχουν προειδοποιήσει [16] ότι οι προηγούμενες γενιές γλωσσικών μοντέλων θα μπορούσαν να γίνουν αντικείμενο κατάχρησης με αυτόν τον τρόπο. Ωστόσο, υπάρχουν ελάχιστες δημόσιες αποδείξεις ότι τα κράτη έχουν οργανώσει επιχειρήσεις επιρροής με τεχνητή νοημοσύνη χρησιμοποιώντας αυτά τα εργαλεία.

Ωστόσο, η απουσία αποδείξεων για τέτοιες εκστρατείες δεν αποτελεί ισχυρή απόδειξη της απουσίας τους. Παρόλο που δεν υπάρχει δημόσια διαθέσιμη απόδειξη ότι τα γλωσσικά μοντέλα έχουν χρησιμοποιηθεί για επιχειρήσεις επιρροής, δεν υπάρχει επίσης απόδειξη ότι δεν έχουν χρησιμοποιηθεί με αυτόν τον τρόπο. Οι ερευνητές της παραπληροφόρησης έχουν μόλις πρόσφατα αρχίσει να δίνουν προσοχή στα γλωσσικά μοντέλα.

Ακόμη και αν υποθέσουμε ότι τα γλωσσικά μοντέλα δεν έχουν χρησιμοποιηθεί σε προηγούμενες εκστρατείες επιρροής, δεν υπάρχει καμία εγγύηση ότι δεν θα χρησιμοποιηθούν σε μελλοντικές εκστρατείες. Μια δημοφιλής τεχνολογία για την δημιουργία προσώπων που δημιουργούνται από AI αναπτύχθηκε για πρώτη φορά το 2014, αλλά μόλις το 2019 οι ερευνητές αποκάλυψαν εικόνες προφίλ που δημιουργήθηκαν από τεχνητή νοημοσύνη σε μια επιχείρηση επιρροής. Το 2022, περισσότερα από τα δύο τρίτα [17] των επιχειρήσεων επιρροής που εντοπίστηκαν και αφαιρέθηκαν από την Meta (την μητρική εταιρία του Facebook) περιλάμβαναν ψεύτικα πρόσωπα. Χρειάστηκε η βελτίωση της τεχνολογίας και η ευκολία της πρόσβασης από τους προπαγανδιστές για να γίνει η χρήση τους συνήθης. Το ίδιο θα μπορούσε να συμβεί και με τα γλωσσικά μοντέλα. Οι εταιρείες επενδύουν στην βελτίωση των αποτελεσμάτων των γλωσσικών μοντέλων και στην ευκολότερη χρήση τους, γεγονός που θα αυξήσει την ελκυστικότητά τους για τους προπαγανδιστές.

Ένας δεύτερος λόγος για να αμφιβάλλουμε ότι τα γλωσσικά μοντέλα αποτελούν σοβαρή απειλή αφορά την αποτελεσματικότητα των προπαγανδιστικών εκστρατειών γενικά. Μια μελέτη [18] σχετικά με τις προσπάθειες της Υπηρεσίας Ερευνών Διαδικτύου στο Twitter που δημοσιεύθηκε από το Nature Communications δεν βρήκε «καμία απόδειξη ουσιαστικής σχέσης μεταξύ της έκθεσης στην εκστρατεία εξωτερικής ρωσικής επιρροής [2016] και των αλλαγών στις στάσεις, την πόλωση, ή την εκλογική συμπεριφορά». Ο γνωστικός επιστήμονας, Hugo Mercier, υποστήριξε ομοίως [19] ότι οι άνθρωποι είναι λιγότερο εύπιστοι από όσο πιστεύεται συνήθως.

Αλλά ακόμη και αν οι προπαγανδιστές συχνά αποτυγχάνουν να πείσουν, μπορούν να καταφέρουν να εκτοπίσουν την γνήσια συζήτηση και να υπονομεύσουν την εμπιστοσύνη του κοινού. Για παράδειγμα, αφότου οι υποστηριζόμενοι από την Ρωσία αυτονομιστές στην Ουκρανία κατέρριψαν την πτήση 17 της Malaysia Airlines τον Ιούλιο του 2014, το Υπουργείο Άμυνας της Ρωσίας προέβη σε αντιφατικούς [20] ισχυρισμούς σχετικά με το ποιος κατέρριψε το αεροπλάνο και πώς το είχε κάνει. Ο στόχος, όπως φαίνεται, δεν ήταν να πεισθεί το κοινό για οποιοδήποτε αφήγημα, αλλά να θολώσει τα νερά και να εκτρέψει τις ευθύνες μακριά από τη Μόσχα. Εάν οι προπαγανδιστές κατακλύζουν τους διαδικτυακούς χώρους με προπαγάνδα που δημιουργείται από την τεχνητή νοημοσύνη, μπορούν να σπείρουν την δυσπιστία και να καταστήσουν δυσκολότερη την διάκριση της αλήθειας. Οι άνθρωποι ίσως να αρχίσουν να μην εμπιστεύονται ακόμη και τις δικές τους παρατηρήσεις, διαβρώνοντας την πίστη τους σε μια διαμοιρασμένη πραγματικότητα.

ΚΡΑΤΗΣΤΕ ΤΟ ΑΛΗΘΙΝΟ

Παρόλο που τα γλωσσικά μοντέλα γίνονται ισχυρά εργαλεία προπαγάνδας, δεν χρειάζεται να οδηγήσουν σε μια πληροφοριακή Αποκάλυψη. Για να εκτελέσουν μια επιτυχημένη εκστρατεία επιρροής με την βοήθεια της τεχνητής νοημοσύνης, οι προπαγανδιστές χρειάζονται τουλάχιστον τρία πράγματα. Πρώτον, χρειάζονται πρόσβαση σε ένα λειτουργικό γλωσσικό μοντέλο, το οποίο θα μπορούσαν να δημιουργήσουν από το μηδέν, να κλέψουν, να κατεβάσουν από ιστότοπους ανοικτού κώδικα, ή να αποκτήσουν πρόσβαση από έναν πάροχο υπηρεσιών ΑΙ. Δεύτερον, χρειάζονται υποδομές, όπως ιστότοπους ή ψεύτικους λογαριασμούς σε δίκτυα κοινωνικής δικτύωσης, για να διαδώσουν την προπαγάνδα τους. Και τέλος, χρειάζονται πραγματικούς ανθρώπους που να επηρεάζονται ή τουλάχιστον να μπερδεύονται ή να απογοητεύονται από το περιεχόμενο που μεταδίδουν [οι προπαγανδιστές]. Σε κάθε στάδιο αυτής της διαδικασίας, οι κυβερνήσεις, οι επιχειρήσεις, και οι τεχνολόγοι έχουν την ευκαιρία να παρέμβουν και να μετριάσουν την ζημιά που προκαλούν τέτοιες εκστρατείες.