Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης | Foreign Affairs - Hellenic Edition
Secure Connection

Η επερχόμενη εποχή της προπαγάνδας μέσω τεχνητής νοημοσύνης

Πώς να αμυνθούμε ενάντια στην υπερτροφοδοτούμενη παραπληροφόρηση

Στο στάδιο της πρόσβασης, υπάρχει μια σειρά επιλογών είτε για τον έλεγχο της χρήσης των γλωσσικών μοντέλων είτε για τον περιορισμό της ικανότητάς τους να παράγουν επικίνδυνα αποτελέσματα. Παρόλο που σήμερα αποτελεί κανόνα στην ΑΙ η ευρεία διανομή μοντέλων ανοικτού κώδικα στο πνεύμα της επιστήμης, ίσως θα ήταν συνετό να εξεταστεί ένας κανόνας που θα καθιστά πιο δύσκολη την πρόσβαση στις δυνατότητες που θα απαιτούσε ένας προπαγανδιστής. Ένας τρόπος για να γίνει αυτό θα ήταν ο έλεγχος των μοντέλων πίσω από μια εφαρμογή προγραμματισμού διεπαφών (application programming interface), ένα στρώμα λογισμικού που λειτουργεί ως πύλη μεταξύ των χρηστών και των γλωσσικών μοντέλων, το οποίο θα επέτρεπε στους παρόχους υπηρεσιών ΑΙ (και ενδεχομένως σε άλλους) να αποτρέπουν, να ανιχνεύουν, και να αντιδρούν σε πιθανούς προπαγανδιστές. Μια άλλη επιλογή είναι η ανάπτυξη μοντέλων που είναι πιο ακριβή και λιγότερο πιθανό να παράγουν προβληματικά αποτελέσματα, κάτι που ήδη κάνουν οι ερευνητές. Οι ερευνητές διερευνούν επίσης την δυνατότητα δημιουργίας μοντέλων με ένα ψηφιακό «υδατογράφημα», ώστε να είναι ευκολότερη η αναγνώριση του περιεχομένου που παράγουν.

Σε επίπεδο υποδομής, οι εταιρείες μέσων κοινωνικής δικτύωσης και οι μηχανές αναζήτησης θα μπορούσαν να εργάζονται προληπτικά για τον εντοπισμό περιεχομένου που παράγεται με τεχνητή νοημοσύνη και να απαιτούν από τους χρήστες να κάνουν το ίδιο. Θα μπορούσαν επίσης να καταστήσουν δυνατή την εφαρμογή προτύπων ψηφιακής προέλευσης στο κείμενο, τα οποία θα επέτρεπαν στους ανθρώπους να γνωρίζουν πώς παράχθηκε το κείμενο -για παράδειγμα, ποιος το συνέταξε και αν δημιουργήθηκε από ΑΙ. Παρόλο που τέτοια πρότυπα φαίνεται προς το παρόν δύσκολο να εφαρμοστούν, περισσότερη έρευνα θα μπορούσε να αποκαλύψει μια πορεία προς τα εμπρός.

Τέλος, οι κοινωνίες πρέπει να ενισχύσουν την ανθεκτικότητα των ανυποψίαστων χρηστών των μέσων κοινωνικής δικτύωσης και του Διαδικτύου. Στην Φινλανδία, η παιδεία στα media είναι συνυφασμένη με τα σχολικά προγράμματα σπουδών˙ από νεαρή ηλικία, οι Φινλανδοί μαθαίνουν να αναλύουν τις ειδήσεις που καταναλώνουν και να ελέγχουν τα γεγονότα σε πολλαπλές πηγές. Τέτοιες προσπάθειες μπορούν να βοηθήσουν τους ανθρώπους να διακρίνουν την διαφορά μεταξύ πραγματικών και ψεύτικων ειδήσεων, ώστε να είναι λιγότερο πιθανό να επηρεαστούν από αναξιόπιστο περιεχόμενο, είτε αυτό παράγεται από ανθρώπους είτε από τεχνητή νοημοσύνη. Και η ίδια η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει άμυνα. Καθώς τα γλωσσικά μοντέλα γίνονται πιο ικανά, θα μπορούσαν να αρχίσουν να βοηθούν τους χρήστες να προσδιορίζουν το περιβάλλον [των πληροφοριών] και ακόμη και να δίνουν νόημα στις πληροφορίες που βλέπουν.

Η άνοδος των γλωσσικών μοντέλων τεχνητής νοημοσύνης απαιτεί ευρύτερο υπολογισμό. Μεταξύ των θεμελιωδών ερωτημάτων που πρέπει να απαντήσουν οι κοινωνίες είναι: Ποιος θα πρέπει να ελέγχει την πρόσβαση σε αυτά τα μοντέλα; Ποιον θέτουν σε κίνδυνο; Και είναι καν επιθυμητή η μίμηση του ανθρώπινου διαλόγου με τεχνητή νοημοσύνη; Αν και οι επιπτώσεις των μελλοντικών γλωσσικών μοντέλων είναι δύσκολο να προβλεφθούν, είναι σαφές ότι θα γίνουν αισθητές πολύ πέρα από τα εργαστήρια τεχνητής νοημοσύνης που τα δημιουργούν. Έτσι, οι κυβερνήσεις, οι επιχειρήσεις, η κοινωνία των πολιτών, και το ευρύ κοινό θα πρέπει όλοι να έχουν λόγο στον τρόπο με τον οποίο σχεδιάζονται και χρησιμοποιούνται αυτά τα μοντέλα -και στον τρόπο διαχείρισης των πιθανών κινδύνων που εγκυμονούν.