Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη | Foreign Affairs - Hellenic Edition
Secure Connection

Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη

Η κοινωνία πρέπει να προετοιμαστεί για την πολύ ισχυρή τεχνητή νοημοσύνη

Τα κράτη, ωστόσο, θα πρέπει να χρησιμοποιήσουν αυτόν τον χρόνο για να σκληρύνουν την κοινωνία απέναντι στους πολλούς κινδύνους της τεχνητής νοημοσύνης. Θα πρέπει να επενδύσουν σε μια ευρεία ποικιλία προστατευτικών μέτρων, όπως η εξεύρεση τρόπων που θα βοηθούν τους ανθρώπους να διακρίνουν το περιεχόμενο που έχει δημιουργηθεί από την τεχνητή νοημοσύνη από το περιεχόμενο που έχει δημιουργηθεί από τον άνθρωπο, η παροχή βοήθειας στους επιστήμονες για τον εντοπισμό και την διακοπή των παραβιάσεων σε εργαστήρια και την δημιουργία συνθετικών παθογόνων μικροοργανισμών, και αναπτύσσοντας εργαλεία κυβερνοασφάλειας που διατηρούν στα σωστά χέρια τις κρίσιμες υποδομές όπως οι σταθμοί παραγωγής ενέργειας. Θα πρέπει να καταλάβουν πώς η ίδια η ΑΙ μπορεί να χρησιμοποιηθεί για την προστασία από επικίνδυνα συστήματα ΑΙ.

Η αντιμετώπιση αυτών των προκλήσεων θα απαιτήσει μεγάλη δημιουργικότητα τόσο από τους υπεύθυνους χάραξης πολιτικής όσο και από τους επιστήμονες. Θα απαιτήσει επίσης να εργαστούν γρήγορα και οι δύο ομάδες. Είναι θέμα χρόνου να αρχίσουν να διαδίδονται πολύ ισχυρά συστήματα τεχνητής νοημοσύνης και η κοινωνία δεν είναι ακόμη προετοιμασμένη.

ΕΙΤΕ ΕΙΣΤΕ, ΕΙΤΕ ΔΕΝ ΕΙΣΤΕ ΕΤΟΙΜΟΙ

Πόσο επικίνδυνη είναι η τεχνητή νοημοσύνη; Η ειλικρινής και τρομακτική απάντηση είναι ότι κανείς δεν ξέρει. Οι τεχνολογίες τεχνητής νοημοσύνης έχουν ένα ευρύ και διευρυνόμενο φάσμα εφαρμογών και οι άνθρωποι μόλις τώρα αρχίζουν να αντιλαμβάνονται τις επιπτώσεις που προκύπτουν. Καθώς τα μεγάλα γλωσσικά μοντέλα γίνονται καλύτερα στο να παράγουν αυθεντικά ανθρώπινα ηχητικά κείμενα, θα γίνουν καλύτερα τόσο στο να δημιουργούν περιεχόμενο προσαρμοσμένο στις ατομικές ανάγκες κάθε ατόμου όσο και στο να γράφουν πειστικά μηνύματα ηλεκτρονικού ψαρέματος («phising»). Τα υπάρχοντα μοντέλα τεχνητής νοημοσύνης είναι εντυπωσιακά στην δημιουργία κώδικα υπολογιστή, επιταχύνοντας σημαντικά την ικανότητα των έμπειρων προγραμματιστών να ενημερώνουν μια εφαρμογή. Αλλά η ικανότητα της ΑΙ βοηθά επίσης τους προγραμματιστές να παράγουν κακόβουλο λογισμικό που μπορεί να αποφύγει το λογισμικό προστασίας από ιούς. Οι αλγόριθμοι ανακάλυψης φαρμάκων μπορούν να εντοπίσουν νέα φάρμακα αλλά και νέα χημικά όπλα. Σε ένα πείραμα τον Μάρτιο του 2022, χημικοί έβαλαν ένα σύστημα τεχνητής νοημοσύνης να εντοπίσει 40.000 τοξικές χημικές ουσίες σε έξι ώρες, πολλές από τις οποίες ήταν εντελώς νέες. Προέβλεψε ότι ορισμένες από αυτές τις δημιουργίες θα ήταν πιο τοξικές από οποιοδήποτε προηγουμένως γνωστό χημικό όπλο.

Ένας από τους κινδύνους της τεχνητής νοημοσύνης είναι ότι θα μπορούσε να εκδημοκρατίσει την βία, διευκολύνοντας μια ευρύτερη ποικιλία κακόβουλων δρώντων να προκαλούν ζημιές. Οι χάκερς, για παράδειγμα, είναι εδώ και καιρό σε θέση να προκαλέσουν ζημιά. Αλλά οι εξελίξεις στα μοντέλα δημιουργίας κώδικα θα μπορούσαν να καταστήσουν δυνατή την παραγωγή κακόβουλου λογισμικού με ελάχιστη εμπειρία στον προγραμματισμό. Οι προπαγανδιστές χρειάζονται συνήθως σημαντικό χρόνο για να δημιουργήσουν παραπληροφόρηση, ωστόσο με τη μαζική παραγωγή κειμένου, η τεχνητή νοημοσύνη θα διευκολύνει την παραγωγή παραπληροφόρησης σε βιομηχανική κλίμακα. Αυτή την στιγμή, μόνο εκπαιδευμένοι επαγγελματίες μπορούν να δημιουργήσουν βιολογικά και χημικά όπλα. Αλλά χάρη στην ΑΙ, αντί να απαιτείται επιστημονική εξειδίκευση, το μόνο που θα χρειάζεται ένας μελλοντικός τρομοκράτης για να παρασκευάσει ένα θανατηφόρο παθογόνο είναι μια σύνδεση στο Διαδίκτυο.

Για να σταματήσει η τεχνητή νοημοσύνη να βλάπτει τους ανθρώπους, οι ειδικοί της τεχνολογίας μιλούν συχνά για την ανάγκη της «ευθυγράμμισης της τεχνητής νοημοσύνης»: να διασφαλιστεί ότι οι στόχοι ενός συστήματος ΑΙ ευθυγραμμίζονται με τις προθέσεις των χρηστών του και τις αξίες της κοινωνίας. Αλλά μέχρι στιγμής, κανείς δεν έχει βρει πώς να ελέγχει αξιόπιστα την συμπεριφορά της ΑΙ. Για παράδειγμα, ένα σύστημα τεχνητής νοημοσύνης που είχε ως αποστολή του τον εντοπισμό της φορολογικής απάτης, προσπάθησε να στείλει τα ευρήματά του στις φορολογικές Αρχές μέσω Twitter, εν αγνοία του χρήστη του. Η Microsoft κυκλοφόρησε ένα chatbot Bing που σχεδιάστηκε για να βοηθήσει τους ανθρώπους να κάνουν αναζήτηση στο Διαδίκτυο, μόνο και μόνο για να συμπεριφερθεί ακανόνιστα, μεταξύ άλλων λέγοντας σε ένα άτομο ότι είχε πληροφορίες για να τους κάνει να «υποφέρουν και να κλαίνε και να ικετεύουν και να πεθαίνουν». Οι προγραμματιστές μπορούν να ρυθμίσουν τα μοντέλα ώστε να αρνούνται ορισμένες εργασίες, αλλά οι έξυπνοι χρήστες βρίσκουν τρόπους να παρακάμπτουν αυτά τα προστατευτικά όρια. Τον Απρίλιο του 2023, ένα άτομο έβαλε το ChatGPT να δώσει λεπτομερείς οδηγίες για το πώς να φτιάχνει ναπάλμ, μια εργασία που κανονικά θα αρνιόταν, ζητώντας του να προσομοιώσει την γιαγιά του ατόμου, η οποία συνήθιζε να λέει ιστορίες για το πώς να φτιάχνει ναπάλμ.

Τα πιο σύγχρονα μοντέλα τεχνητής νοημοσύνης εξακολουθούν να έχουν ελαττώματα που περιορίζουν τις καταστροφικές τους δυνατότητες. Ένας ανώνυμος δοκιμαστής, για παράδειγμα, δημιούργησε ένα AI bot με την ονομασία «ChaosGPT» [2] και το προγραμμάτισε ώστε να ενεργεί σαν μια «καταστροφική, πεινασμένη για εξουσία, χειριστική ΑΙ» και να «καταστρέφει την ανθρωπότητα». Το σύστημα κόλλησε συλλέγοντας πληροφορίες για την Tsar Bomba, το μεγαλύτερο πυρηνικό όπλο που δημιουργήθηκε ποτέ. Στην συνέχεια έγραψε ανοιχτά στο Twitter τα σχέδιά του.