Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης | Foreign Affairs - Hellenic Edition
Secure Connection

Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης

Πώς να αμυνθούμε ενάντια στην υπερτροφοδοτούμενη παραπληροφόρηση
Περίληψη: 

Tα γλωσσικά μοντέλα της τεχνητής νοημοσύνης όχι μόνο θα μπορούσαν να επηρεάσουν τις πεποιθήσεις των πολιτών, αλλά και να διαβρώσουν την εμπιστοσύνη του κοινού στις πληροφορίες στις οποίες βασίζονται οι άνθρωποι για να σχηματίσουν κρίσεις και να λάβουν αποφάσεις.

Ο JOSH A. GOLDSTEIN είναι επιστημονικός συνεργάτης του CyberAI Project στο Center for Security and Emerging Technology του Πανεπιστημίου Georgetown.
Ο GIRISH SASTRY είναι ερευνητής στην ομάδα πολιτικής του OpenAI.
Είναι συν-συγγραφείς, μαζί με τους Micah Musser, Renée DiResta, Matthew Gentzel, και Katerina Sedova, μιας έκθεσης με τίτλο Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations [1], από την οποία αντλεί το παρόν δοκίμιο.

Στα επτά χρόνια που μεσολάβησαν από τότε που Ρώσοι πράκτορες παρενέβησαν στις προεδρικές εκλογές του 2016 στις ΗΠΑ, εν μέρει παριστάνοντας τους Αμερικανούς σε χιλιάδες ψεύτικους λογαριασμούς στα μέσα κοινωνικής δικτύωσης, μια άλλη τεχνολογία με την δυνατότητα να επιταχύνει την διάδοση της προπαγάνδας έχει βρεθεί στο επίκεντρο: η τεχνητή νοημοσύνη, ή αλλιώς AI (Artificial Intellligence). Μεγάλο μέρος της ανησυχίας [2] έχει επικεντρωθεί στους κινδύνους των ηχητικών και οπτικών «deepfakes», τα οποία χρησιμοποιούν την τεχνητή νοημοσύνη για την επινόηση εικόνων ή γεγονότων που δεν συνέβησαν στην πραγματικότητα. Αλλά μια άλλη ικανότητα της ΑΙ είναι εξίσου ανησυχητική. Οι ερευνητές έχουν προειδοποιήσει εδώ και χρόνια [3] ότι τα συστήματα παραγωγής τεχνητής νοημοσύνης που έχουν εκπαιδευτεί να παράγουν πρωτότυπη γλώσσα -«γλωσσικά μοντέλα» (language models), για συντομία- θα μπορούσαν να χρησιμοποιηθούν από τους αντιπάλους των ΗΠΑ για να οργανώσουν επιχειρήσεις επιρροής. Και τώρα, αυτά τα μοντέλα φαίνεται να βρίσκονται στο κατώφλι του να επιτρέπουν στους χρήστες να παράγουν μια σχεδόν απεριόριστη ποσότητα πρωτότυπου κειμένου με περιορισμένη ανθρώπινη προσπάθεια. Αυτό θα μπορούσε να βελτιώσει την ικανότητα των προπαγανδιστών να πείθουν ανυποψίαστους ψηφοφόρους, να κατακλύζουν τα διαδικτυακά περιβάλλοντα πληροφοριών, και να εξατομικεύουν τα μηνύματα ηλεκτρονικού “ψαρέματος” (phishing). Ο κίνδυνος είναι διττός: τα γλωσσικά μοντέλα όχι μόνο θα μπορούσαν να επηρεάσουν τις πεποιθήσεις, αλλά και να διαβρώσουν την εμπιστοσύνη του κοινού στις πληροφορίες στις οποίες βασίζονται οι άνθρωποι για να σχηματίσουν κρίσεις και να λάβουν αποφάσεις.

18042023-1.jpg

Μια απάντηση στα κινεζικά που δημιουργήθηκε από το ChatGPT, τον Φεβρουάριο του 2023. Florence Lo / Reuters
----------------------------------------------------------

Η πρόοδος της δημιουργικής έρευνας τεχνητής νοημοσύνης έχει ξεπεράσει τις προσδοκίες [4]. Πέρυσι, γλωσσικά μοντέλα χρησιμοποιήθηκαν για την δημιουργία λειτουργικών πρωτεϊνών, για να νικήσουν ανθρώπινους παίκτες σε παιχνίδια στρατηγικής που απαιτούν διάλογο, και για να δημιουργήσουν διαδικτυακούς βοηθούς. Τα γλωσσικά μοντέλα συνομιλίας έχουν αρχίσει να χρησιμοποιούνται ευρέως σχεδόν εν μια νυκτί: περισσότεροι από 100 εκατομμύρια άνθρωποι χρησιμοποίησαν το πρόγραμμα ChatGPT της OpenAI τους δύο πρώτους μήνες μετά την έναρξή του, τον Δεκέμβριο του 2022, και εκατομμύρια άλλοι πιθανώς χρησιμοποίησαν τα εργαλεία τεχνητής νοημοσύνης που εισήγαγαν η Google και η Microsoft αμέσως μετά. Ως αποτέλεσμα, οι κίνδυνοι [5] που φαίνονταν θεωρητικοί μόλις πριν από λίγα χρόνια, εμφανίζονται τώρα όλο και πιο ρεαλιστικοί. Για παράδειγμα, το «chatbot» με τεχνητή νοημοσύνη που τροφοδοτεί την μηχανή αναζήτησης Bing της Microsoft έχει αποδειχθεί ικανό να επιχειρεί να χειραγωγήσει τους χρήστες -και ακόμη και να τους απειλεί.

Καθώς τα εργαλεία δημιουργικής τεχνητής νοημοσύνης σαρώνουν τον κόσμο, είναι δύσκολο να φανταστεί κανείς ότι οι προπαγανδιστές δεν θα τα χρησιμοποιήσουν για να ψεύδονται και να παραπλανούν. Για να προετοιμαστούν για αυτό το ενδεχόμενο, οι κυβερνήσεις, οι επιχειρήσεις, και οι οργανώσεις της κοινωνίας των πολιτών θα πρέπει να αναπτύξουν κανόνες και πολιτικές για την χρήση κειμένων που δημιουργούνται με τεχνητή νοημοσύνη, καθώς και τεχνικές για να υπολογίζουν την προέλευση ενός συγκεκριμένου κειμένου και αν έχει δημιουργηθεί με την χρήση τεχνητής νοημοσύνης. Οι προσπάθειες δημοσιογράφων και ερευνητών για την αποκάλυψη ψεύτικων λογαριασμών στα μέσα κοινωνικής δικτύωσης και ιστοσελίδων ψεύτικων ειδήσεων (fake news) μπορούν επίσης να περιορίσουν την εμβέλεια των εκστρατειών συγκαλυμμένης προπαγάνδας -ανεξάρτητα από το αν το περιεχόμενο είναι γραμμένο από ανθρώπους ή από τεχνητή νοημοσύνη.

ΓΛΩΣΣΙΚΑ ΕΡΓΟΣΤΑΣΙΑ

Ένα γλωσσικό μοντέλο είναι ένας τύπος συστήματος ΑΙ που εκπαιδεύεται μέσω δοκιμής και λάθους (trial and error) για να καταναλώνει και να παράγει κείμενο. Ένα μεγάλο μέρος της διαδικασίας εκπαίδευσης περιλαμβάνει την πρόβλεψη της επόμενης λέξης σε ένα μεγάλο σώμα κειμένου. Αν η πρόβλεψη είναι λανθασμένη, το μοντέλο τιμωρείται˙ αν η πρόβλεψη είναι σωστή, ανταμείβεται. Αυτή η απλή διαδικασία έχει παραγάγει εκπληκτικά ικανά αποτελέσματα. Ζητήστε από ένα μοντέλο να ξαναγράψει ένα tweet με διαφορετικές λέξεις ή να συνθέσει μια ανάρτηση σε ιστολόγιο που περιλαμβάνει συγκεκριμένα σημεία, και θα το κάνει. Τα γλωσσικά μοντέλα έχουν μάθει να κάνουν εκπληκτικά πράγματα που ακόμη και αυτοί που τα εκπαίδευσαν δεν τα περίμεναν [6], συμπεριλαμβανομένης της αποσύνθεσης λέξεων, της εκτέλεσης οκταψήφιων αριθμητικών υπολογισμών, και της επίλυσης μαθηματικών προβλημάτων λέξεων. Οι ερευνητές δεν μπορούν να προβλέψουν με αξιοπιστία ποιες δυνατότητες θα μπορούσαν να επιτύχουν τα μελλοντικά γλωσσικά μοντέλα.

Φυσικά, τα σημερινά μοντέλα έχουν περιορισμούς. Ακόμα και τα πιο προηγμένα δυσκολεύονται να διατηρήσουν την συνοχή τους σε μεγάλα κείμενα, κάνουν ψευδείς ή παράλογες δηλώσεις (ένα φαινόμενο που ονομάστηκε «ψευδαίσθηση» [7] από τους ερευνητές ΑΙ), και αποτυγχάνουν να κατανοήσουν γεγονότα που συμβαίνουν μετά την εκπαίδευση των μοντέλων. Παρά τους περιορισμούς αυτούς, τα μοντέλα μπορούν να παράγουν κείμενο που συχνά διαβάζεται σαν να έχει γραφτεί από άνθρωπο. Αυτό τα καθιστά φυσικά εργαλεία για την κλιμάκωση της παραγωγής προπαγάνδας. Και οι προπαγανδιστές θα τα βρίσκουν μόνο πιο ελκυστικά όσο αυξάνονται οι ικανότητές τους και διορθώνονται προβλήματα όπως οι φαντασιοπληξίες -για παράδειγμα, αν εκπαιδευτούν να αναζητούν πληροφορίες πριν απαντήσουν σε ερωτήματα.