Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης
Tα γλωσσικά μοντέλα της τεχνητής νοημοσύνης όχι μόνο θα μπορούσαν να επηρεάσουν τις πεποιθήσεις των πολιτών, αλλά και να διαβρώσουν την εμπιστοσύνη του κοινού στις πληροφορίες στις οποίες βασίζονται οι άνθρωποι για να σχηματίσουν κρίσεις και να λάβουν αποφάσεις.
Ο JOSH A. GOLDSTEIN είναι επιστημονικός συνεργάτης του CyberAI Project στο Center for Security and Emerging Technology του Πανεπιστημίου Georgetown.
Ο GIRISH SASTRY είναι ερευνητής στην ομάδα πολιτικής του OpenAI.
Είναι συν-συγγραφείς, μαζί με τους Micah Musser, Renée DiResta, Matthew Gentzel, και Katerina Sedova, μιας έκθεσης με τίτλο Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations [1], από την οποία αντλεί το παρόν δοκίμιο.
Στο στάδιο της πρόσβασης, υπάρχει μια σειρά επιλογών είτε για τον έλεγχο της χρήσης των γλωσσικών μοντέλων είτε για τον περιορισμό της ικανότητάς τους να παράγουν επικίνδυνα αποτελέσματα. Παρόλο που σήμερα αποτελεί κανόνα στην ΑΙ η ευρεία διανομή μοντέλων ανοικτού κώδικα στο πνεύμα της επιστήμης, ίσως θα ήταν συνετό να εξεταστεί ένας κανόνας που θα καθιστά πιο δύσκολη την πρόσβαση στις δυνατότητες που θα απαιτούσε ένας προπαγανδιστής. Ένας τρόπος για να γίνει αυτό θα ήταν ο έλεγχος των μοντέλων πίσω από μια εφαρμογή προγραμματισμού διεπαφών (application programming interface), ένα στρώμα λογισμικού που λειτουργεί ως πύλη μεταξύ των χρηστών και των γλωσσικών μοντέλων, το οποίο θα επέτρεπε στους παρόχους υπηρεσιών ΑΙ (και ενδεχομένως σε άλλους) να αποτρέπουν, να ανιχνεύουν, και να αντιδρούν σε πιθανούς προπαγανδιστές. Μια άλλη επιλογή είναι η ανάπτυξη μοντέλων που είναι πιο ακριβή και λιγότερο πιθανό να παράγουν προβληματικά αποτελέσματα, κάτι που ήδη κάνουν οι ερευνητές. Οι ερευνητές διερευνούν επίσης την δυνατότητα δημιουργίας μοντέλων με ένα ψηφιακό «υδατογράφημα», ώστε να είναι ευκολότερη η αναγνώριση του περιεχομένου που παράγουν.
Σε επίπεδο υποδομής, οι εταιρείες μέσων κοινωνικής δικτύωσης και οι μηχανές αναζήτησης θα μπορούσαν να εργάζονται προληπτικά για τον εντοπισμό περιεχομένου που παράγεται με τεχνητή νοημοσύνη και να απαιτούν από τους χρήστες να κάνουν το ίδιο. Θα μπορούσαν επίσης να καταστήσουν δυνατή την εφαρμογή προτύπων ψηφιακής προέλευσης στο κείμενο, τα οποία θα επέτρεπαν στους ανθρώπους να γνωρίζουν πώς παράχθηκε το κείμενο -για παράδειγμα, ποιος το συνέταξε και αν δημιουργήθηκε από ΑΙ. Παρόλο που τέτοια πρότυπα φαίνεται προς το παρόν δύσκολο να εφαρμοστούν, περισσότερη έρευνα θα μπορούσε να αποκαλύψει μια πορεία προς τα εμπρός.
Τέλος, οι κοινωνίες πρέπει να ενισχύσουν την ανθεκτικότητα των ανυποψίαστων χρηστών των μέσων κοινωνικής δικτύωσης και του Διαδικτύου. Στην Φινλανδία, η παιδεία στα media είναι συνυφασμένη με τα σχολικά προγράμματα σπουδών˙ από νεαρή ηλικία, οι Φινλανδοί μαθαίνουν να αναλύουν τις ειδήσεις που καταναλώνουν και να ελέγχουν τα γεγονότα σε πολλαπλές πηγές. Τέτοιες προσπάθειες μπορούν να βοηθήσουν τους ανθρώπους να διακρίνουν την διαφορά μεταξύ πραγματικών και ψεύτικων ειδήσεων, ώστε να είναι λιγότερο πιθανό να επηρεαστούν από αναξιόπιστο περιεχόμενο, είτε αυτό παράγεται από ανθρώπους είτε από τεχνητή νοημοσύνη. Και η ίδια η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει άμυνα. Καθώς τα γλωσσικά μοντέλα γίνονται πιο ικανά, θα μπορούσαν να αρχίσουν να βοηθούν τους χρήστες να προσδιορίζουν το περιβάλλον [των πληροφοριών] και ακόμη και να δίνουν νόημα στις πληροφορίες που βλέπουν.
Η άνοδος των γλωσσικών μοντέλων τεχνητής νοημοσύνης απαιτεί ευρύτερο υπολογισμό. Μεταξύ των θεμελιωδών ερωτημάτων που πρέπει να απαντήσουν οι κοινωνίες είναι: Ποιος θα πρέπει να ελέγχει την πρόσβαση σε αυτά τα μοντέλα; Ποιον θέτουν σε κίνδυνο; Και είναι καν επιθυμητή η μίμηση του ανθρώπινου διαλόγου με τεχνητή νοημοσύνη; Αν και οι επιπτώσεις των μελλοντικών γλωσσικών μοντέλων είναι δύσκολο να προβλεφθούν, είναι σαφές ότι θα γίνουν αισθητές πολύ πέρα από τα εργαστήρια τεχνητής νοημοσύνης που τα δημιουργούν. Έτσι, οι κυβερνήσεις, οι επιχειρήσεις, η κοινωνία των πολιτών, και το ευρύ κοινό θα πρέπει όλοι να έχουν λόγο στον τρόπο με τον οποίο σχεδιάζονται και χρησιμοποιούνται αυτά τα μοντέλα -και στον τρόπο διαχείρισης των πιθανών κινδύνων που εγκυμονούν.