Φονικές εφαρμογές | Foreign Affairs - Hellenic Edition
Secure Connection

Φονικές εφαρμογές

Οι πραγματικοί κίνδυνοι μιας κούρσας εξοπλισμών τεχνητής νοημοσύνης*

Η δοκιμή συστημάτων AI απαιτεί συχνά περισσότερο χρόνο και χρήματα από την δοκιμή του παραδοσιακού στρατιωτικού εξοπλισμού. Η πολυπλοκότητά τους, η οποία τα καθιστά πιο ικανά, δημιουργεί επίσης περισσότερες ευκαιρίες για απροσδόκητες δυσλειτουργίες. Φανταστείτε ότι μια κυβέρνηση αναπτύσσει ένα σύστημα AI που μπορεί να εισβάλλει στα δίκτυα ηλεκτρονικών υπολογιστών των αντιπάλων της, αποφεύγοντας την ανίχνευση. Η πρώτη κυβέρνηση που θα αναπτύξει ένα τέτοιο σύστημα θα αποκτήσει τεράστιο πλεονέκτημα έναντι των ανταγωνιστών της. Ανησυχώντας ότι ένας αντίπαλος αναπτύσσει ένα παρόμοιο εργαλείο, η κυβέρνηση μπορεί να αισθάνεται υποχρεωμένη να μειώσει τις δοκιμές και να αναπτύξει το σύστημα από νωρίς. Αυτή η δυναμική έχει ήδη εκτυλιχθεί σε άλλες βιομηχανίες, όπως τα αυτο-οδηγούμενα αυτοκίνητα. Οι συνέπειες των ατυχημάτων που θα προκληθούν από τα εργαλεία AI της εθνικής ασφάλειας θα μπορούσαν να είναι πολύ χειρότερες.

Η AI δεν θα είναι η πρώτη περίπτωση όπου κυβερνήσεις βασίζονται σε ισχυρή αλλά ανασφαλή τεχνολογία. Αυτό ακριβώς συνέβη με τους υπολογιστές, οι οποίοι διαδραματίζουν κρίσιμο ρόλο σε όλα, από την διαπραγμάτευση μετοχών μέχρι το να κατευθύνουν πυραύλους, παρόλο που υποφέρουν από τεράστιες ευπάθειες. Το 2018, οι ερευνητές στο Γραφείο Λογοδοσίας της Κυβέρνησης των ΗΠΑ (U.S. Government Accountability Office, GAO) διαπίστωσαν ότι τα αμερικανικά οπλικά συστήματα ήταν γεμάτα με κενά κυβερνοασφάλειας που θα μπορούσαν να αξιοποιηθούν με «σχετικά απλά εργαλεία και τεχνικές». Ακόμη χειρότερα, οι υπεύθυνοι προγραμμάτων του Υπουργείου Άμυνας δεν γνώριζαν τα προβλήματα και απέρριψαν τα ευρήματα του GAO, υποστηρίζοντας ότι οι δοκιμές δεν ήταν ρεαλιστικές. Τα τρωτά σημεία ασφαλείας υπολογιστών δεν περιορίζονται στα κυβερνητικά συστήματα. Η μια εταιρεία μετά την άλλη υπέστησαν σημαντικές παραβιάσεις δεδομένων. Η ψηφιακή ασφάλεια είναι ήδη πάρα πολύ συχνά μια δεύτερη σκέψη. Ένας κόσμος ευρέως διαδεδομένων, μη προστατευμένων συστημάτων AI δεν είναι απλώς μια πιθανότητα˙ είναι το εξ’ ορισμού σκηνικό.

ΠΡΩΤΑ Η ΑΣΦΑΛΕΙΑ

Οι επείγουσες απειλές απαιτούν επείγουσες απαντήσεις. Ένας από τους σημαντικότερους τρόπους με τους οποίους οι αρμόδιοι για την χάραξη πολιτικής μπορούν να αντιμετωπίσουν τους κινδύνους που ενέχει η AI είναι να ενισχύσουν την χρηματοδότηση της έρευνας για την ασφάλεια της AI. Οι εταιρείες δαπανούν δισεκατομμύρια δολάρια για την εξεύρεση εμπορικών εφαρμογών για την ΑΙ, αλλά η κυβέρνηση των ΗΠΑ μπορεί να διαδραματίσει πολύτιμο ρόλο στην χρηματοδότηση της βασικής έρευνας για την ΑΙ, όπως έχει κάνει από τις πρώτες μέρες του τομέα. Η πρωτοβουλία AI Next, ένα πρόγραμμα που εκτελείται από την Υπηρεσία Προηγμένων Αμυντικών Ερευνητικών Προγραμμάτων (Defense Advanced Research Projects Agency) που πρόκειται να δαπανήσει 2 δισεκατομμύρια δολάρια για τα επόμενα πέντε χρόνια, έχει ως στόχο την αντιμετώπιση πολλών από τους περιορισμούς των στενά AI συστημάτων. Επεκτείνοντας την προσπάθεια αυτή, ο Λευκός Οίκος θα πρέπει να αυξήσει την χρηματοδότηση για την έρευνα για την ασφάλεια της ΑΙ στο πλαίσιο της νέας της American AI Initiative και θα πρέπει να ζητήσει από το Κογκρέσο πρόσθετα χρήματα για Ε&Α και για έρευνα στην ασφάλεια.

Όσον αφορά την εφαρμογή της ΑΙ στην εθνική ασφάλεια, οι κυβερνητικές υπηρεσίες θα πρέπει να επανεξετάσουν τις παραδοσιακές τους προσεγγίσεις για την δοκιμή νέων συστημάτων. Η επαλήθευση ότι ένα σύστημα πληροί τις προδιαγραφές του σχεδιασμού του δεν αρκεί. Οι δοκιμαστές πρέπει επίσης να διασφαλίσουν ότι θα συνεχίσει να λειτουργεί σωστά στον πραγματικό κόσμο όταν ένας αντίπαλος προσπαθεί να το νικήσει. Σε ορισμένες περιπτώσεις, μπορούν να χρησιμοποιήσουν προσομοιώσεις ηλεκτρονικών υπολογιστών για να ξεριζώσουν σφάλματα (bugs), όπως κάνουν τώρα οι κατασκευαστές για τα αυτόνομα αυτοκίνητα. Επιπλέον, τα Υπουργεία Άμυνας και Εσωτερικής Ασφάλειας και η κοινότητα πληροφοριών θα πρέπει να δημιουργήσουν «κόκκινες ομάδες» -ομάδες που θα ενεργούν ως επιτιθέμενοι για να δοκιμάσουν τις άμυνες ενός συστήματος- για να ανακαλύψουν τα τρωτά σημεία των συστημάτων AI, έτσι ώστε οι προγραμματιστές να μπορούν να τα διορθώσουν πριν ενεργοποιηθούν τα συστήματα αυτά.

Οι κυβερνητικοί αξιωματούχοι θα πρέπει επίσης να μετριάσουν την ρητορική τους για μια κούρσα εξοπλισμών στην ΑΙ, δεδομένου ότι μια τέτοια ρητορική θα μπορούσε εύκολα να γίνει αυτοεκπληρούμενη. Σε μια διάσκεψη το 2018, ο Michael Griffin, ο επικεφαλής αξιωματούχος του Πενταγώνου για την έρευνα και την μηχανοποίηση, δήλωσε: «Μπορεί να υπάρξει κούρσα εξοπλισμών στην τεχνητή νοημοσύνη, αλλά δεν είμαστε ακόμα σε αυτό». Οι στρατιώτες σίγουρα θα υιοθετήσουν την AI, αλλά από την δήλωση του Griffin έλλειπε κάθε ανησυχία -ή ακόμα και επίγνωση- για τους κινδύνους που συνδέονται με αυτήν. Η συζήτηση για την κούρσα εξοπλισμών ενθαρρύνει τους αντιπάλους να κάνουν συντομότερες τις διαδικασίες που στοχεύουν στην ασφάλεια. Οι κυβερνητικοί αξιωματούχοι θα πρέπει να τονίσουν όχι μόνο την αξία της τεχνητής νοημοσύνης αλλά και την σημασία της διασφάλισης της αξιοπιστίας και της ασφάλειας.