Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης | Foreign Affairs - Hellenic Edition
Secure Connection

Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης

Πώς να αμυνθούμε ενάντια στην υπερτροφοδοτούμενη παραπληροφόρηση

Σκεφτείτε τι θα μπορούσε να κάνει η τεχνητή νοημοσύνη για τις υπάρχουσες προπαγανδιστικές επιχειρήσεις. Η Ρωσίδα δημοσιογράφος, Ksenia Klochkova, έχει γράψει [8] για την εμπειρία της να πάει μυστικά για μια μέρα στο Cyber Front Z, μια «φάρμα τρολ» (troll farm) με έδρα την Αγία Πετρούπολη που διαδίδει προπαγάνδα για τον πόλεμο της Ρωσίας στην Ουκρανία. Σε μια έρευνα που δημοσιεύθηκε τον Μάρτιο του 2022, η Klochkova γράφει ότι ήταν μια από τους 100 υπαλλήλους μιας βάρδιας που πληρώνονταν για να γράφουν σύντομες αναρτήσεις σε καθορισμένους ιστότοπους κοινωνικής δικτύωσης προωθώντας την ατζέντα της Μόσχας [9]. Μετά τον πρώτο μήνα, οι εργαζόμενοι μπορούσαν να μεταβούν σε απομακρυσμένες θέσεις, επιτρέποντας στην επιχείρηση να αναπτυχθεί πέρα από το φυσικό της αποτύπωμα. Τα γλωσσικά μοντέλα θα μπορούσαν να χρησιμοποιηθούν για να ενισχύσουν [10] ή να αντικαταστήσουν τους ανθρώπινους συγγραφείς στην δημιουργία τέτοιου περιεχομένου, μειώνοντας τον αριθμό των εργαζομένων που θα χρειαζόταν το Cyber Front Z και παρόμοιες φάρμες τρολ για να λειτουργήσουν. Εάν το κόστος μειωθεί, όλο και περισσότεροι πολιτικοί παράγοντες θα μπορούσαν να αποφασίσουν να χρηματοδοτήσουν ή να διευθύνουν επιχειρήσεις επιρροής. Και με μικρότερο προσωπικό, τέτοιες εκστρατείες είναι λιγότερο πιθανό να ανακαλυφθούν, καθώς θα απασχολούν λιγότερους πιθανούς διαρροείς και κατασκόπους.

Τα ίδια πράγματα που θα έκαναν τα γλωσσικά μοντέλα χρήσιμα για επιχειρήσεις όπως το Cyber Front Z -η ικανότητα να παράγουν φθηνά κλιμακούμενο περιεχόμενο που δεν διακρίνεται από το ανθρώπινο κείμενο- θα μπορούσαν να τα κάνουν χρήσιμα σε άλλους τομείς που δεν σχεδιάστηκαν με γνώμονα την τεχνητή νοημοσύνη. Το 2020, οι μελετητές, Sarah Kreps και Douglas Kriner, διεξήγαγαν ένα πείραμα [11] στο οποίο έστειλαν σε νομοθέτες των ΗΠΑ επιστολές γραμμένες από τεχνητή νοημοσύνη και από ανθρώπους, σαν να ήταν από ψηφοφόρους. Διαπίστωσαν ότι οι νομοθέτες είχαν μόνο δύο ποσοστιαίες μονάδες λιγότερες πιθανότητες να ανταποκριθούν σε επιστολές που είχαν δημιουργηθεί από ΑΙ από όσο σε επιστολές που είχαν γραφτεί από ανθρώπους. Ο κίνδυνος είναι ότι τα γλωσσικά μοντέλα θα μπορούσαν να χρησιμοποιηθούν για να καταχραστούν ή ακόμα και να υπερφορτώσουν τα συστήματα που λαμβάνουν πληροφορίες από το κοινό, υπονομεύοντας την δημοκρατική λογοδοσία, αν οι εκλεγμένοι αξιωματούχοι δυσκολεύονται να διακρίνουν τις πραγματικές απόψεις των ψηφοφόρων τους ή απλά αποτυγχάνουν να αντιμετωπίσουν την πλημμυρίδα των εισερχομένων τους.

Αυτό δεν σημαίνει ότι τα γλωσσικά μοντέλα θα κατακλύσουν αναγκαστικά τα συστήματα παντού. Σε ορισμένες περιπτώσεις, έχουν αποδειχθεί ακατάλληλα. Ο ιστότοπος τεχνολογικών ειδήσεων, CNET, δημοσίευσε δεκάδες ειδησεογραφικά άρθρα που δημιουργήθηκαν με τεχνητή νοημοσύνη, για να ανακαλύψει ότι πολλά από αυτά ήταν γεμάτα με ανακρίβειες. Το Stack Overflow, μια πλατφόρμα που επιτρέπει στους προγραμματιστές να απαντούν ο ένας στις ερωτήσεις του άλλου, αναγκάστηκε να απαγορεύσει στους χρήστες να χρησιμοποιούν το ChatGPT, επειδή εξακολουθούσε να δίνει λανθασμένες απαντήσεις. Όμως, καθώς τα γλωσσικά μοντέλα βελτιώνονται, η παραγωγή τους θα είναι όλο και πιο δύσκολο να εντοπιστεί με βάση το περιεχόμενο και μόνο. Θεσμοί τόσο διαφορετικοί όσο οι πλατφόρμες κοινωνικής δικτύωσης και οι κυβερνητικοί οργανισμοί που αναζητούν δημόσια σχόλια θα πρέπει να εξετάσουν αν είναι επιρρεπείς στο να κατακλύζονται από κείμενο που παράγεται από τεχνητή νοημοσύνη -και να σκληρύνουν τις άμυνές τους, αν ναι.

ΜΟΝΟ ΓΙΑ ΣΕΝΑ

Τα γλωσσικά μοντέλα δεν προσφέρουν απλώς την δυνατότητα παραγωγής περισσότερης προπαγάνδας με χαμηλότερο κόστος. Θα μπορούσαν επίσης να βελτιώσουν την ποιότητα της προπαγάνδας προσαρμόζοντάς την σε συγκεκριμένες ομάδες. Το 2016, οι υπάλληλοι της ρωσικής φάρμας τρολ, γνωστής ως Internet Research Agency, προσπάθησαν να ενσωματωθούν [12] [13] σε συγκεκριμένες διαδικτυακές κοινότητες -για παράδειγμα, παρουσιαζόμενοι ως αριστεροί μαύροι Αμερικανοί και ως λευκοί Αμερικανοί υπέρ του Trump- ώστε να διαδώσουν προσαρμοσμένη προπαγάνδα σε αυτές τις ομάδες. Αλλά τέτοιες προσπάθειες πλαστοπροσωπίας περιορίζονται από το εύρος ζώνης (bandwidth) των χειριστών και την γνώση τους για συγκεκριμένες κοινότητες-στόχους: υπάρχει μόνο ένα ορισμένο όριο προπαγάνδας που μπορούν να γράψουν και ένα ορισμένο όριο κοινοτήτων που μπορούν να μελετήσουν.

Καθώς τα γλωσσικά μοντέλα βελτιώνονται, τα εμπόδια αυτά θα μπορούσαν να μειωθούν. Οι πρώτες έρευνες [14] δείχνουν ότι τα μοντέλα μπορούν να αντλήσουν από την κοινωνικοπολιτισμική εμπειρία μιας συγκεκριμένης δημογραφικής ομάδας και να εμφανίσουν τις προκαταλήψεις αυτής της ομάδας. Δεδομένης της πρόσβασης σε λεπτομερή δεδομένα σχετικά με τις κοινότητες των ΗΠΑ από δημοσκοπήσεις, εμπόρους δεδομένων, ή πλατφόρμες κοινωνικών μέσων, τα μελλοντικά γλωσσικά μοντέλα θα μπορούσαν να αναπτύξουν περιεχόμενο για μια συνεκτική προσωπικότητα, επιτρέποντας στους προπαγανδιστές να χτίσουν αξιοπιστία σε ένα κοινό-στόχο χωρίς να γνωρίζουν πραγματικά αυτό το κοινό. Η εξατομικευμένη προπαγάνδα θα μπορούσε να είναι αποτελεσματική και εκτός των μέσων κοινωνικής δικτύωσης, για παράδειγμα μέσω προσαρμοσμένων email ή ειδησεογραφικών ιστότοπων.

Η πιο ακραία μορφή εξατομίκευσης μπορεί να είναι η προσωπική συνομιλία. Με τα chatbots που λειτουργούν με τεχνητή νοημοσύνη, οι προπαγανδιστές θα μπορούσαν να ασχοληθούν με τους στόχους τους ατομικά, αντιμετωπίζοντας άμεσα τις ανησυχίες ή τα αντεπιχειρήματά τους και αυξάνοντας τις πιθανότητες πειθούς (ή τουλάχιστον απόσπασης της προσοχής). Αυτήν την στιγμή, θα ήταν εξαιρετικά δαπανηρή η χρήση πόρων για την διεξαγωγή μιας επιχείρησης επιρροής που βασίζεται σε συνεχή διάλογο μεταξύ μεμονωμένων προπαγανδιστών και μεγάλων πληθυσμών. Στο μέλλον, καθώς τα γλωσσικά μοντέλα γίνονται πιο πειστικά και λιγότερο δαπανηρά, τέτοιες εκστρατείες θα μπορούσαν να είναι εφικτές με την βοήθεια της τεχνητής νοημοσύνης.