Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη | Foreign Affairs - Hellenic Edition
Secure Connection

Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη

Η κοινωνία πρέπει να προετοιμαστεί για την πολύ ισχυρή τεχνητή νοημοσύνη

Καθώς όμως νέα μοντέλα τίθενται σε λειτουργία, θα μπορούσαν να αποδειχθούν πιο ικανά να σχεδιάζουν και να χειραγωγούν τους ανθρώπους για να τα εκτελέσουν. Το μοντέλο τεχνητής νοημοσύνης της Meta, «Cicero», επέδειξε επιδόσεις ανθρώπινου επιπέδου στην Διπλωματία, ένα παιχνίδι που περιλαμβάνει διαπραγματεύσεις με άλλους ανθρώπους σε μια προσομοιωμένη γεωπολιτική σύγκρουση. Ορισμένα πειράματα υποδηλώνουν ότι τα μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται με βάση την ανθρώπινη ανατροφοδότηση επιδεικνύουν συκοφαντική συμπεριφορά, λέγοντας στους χρήστες τους αυτό που θέλουν να ακούσουν. Για παράδειγμα, σε ένα πείραμα, τα μοντέλα ήταν πιο πιθανό να εκφράσουν υποστήριξη για τις κυβερνητικές υπηρεσίες αφού τους είπαν ότι μιλούσαν με φιλελεύθερους. Η συμπεριφορά αυτή φαίνεται να γίνεται πιο έντονη όσο τα συστήματα γίνονται πιο ικανά.

Παραμένει ασαφές αν τα μοντέλα θα προσπαθούσαν ενεργά να εξαπατήσουν ή να ελέγξουν τους χειριστές τους. Αλλά ακόμη και η πιθανότητα να προσπαθήσουν είναι λόγος ανησυχίας. Ως αποτέλεσμα, οι ερευνητές δοκιμάζουν τώρα [3] μοντέλα αιχμής για την ικανότητά τους να επιδίδονται σε συμπεριφορές «αναζήτησης εξουσίας», όπως το να κερδίζουν χρήματα στο διαδίκτυο, να αποκτούν πρόσβαση σε υπολογιστικούς πόρους, ή να δημιουργούν αντίγραφα του εαυτού τους -και να προσπαθούν να το κάνουν αποφεύγοντας την ανίχνευση.

ΠΡΟΧΩΡΗΣΤΕ ΑΡΓΑ ΚΑΙ ΧΤΙΣΤΕ ΠΡΑΓΜΑΤΑ

Η αποτροπή της τεχνητής νοημοσύνης από το να προκαλέσει τον όλεθρο δεν θα είναι εύκολη υπόθεση. Αλλά οι κυβερνήσεις μπορούν να ξεκινήσουν πιέζοντας τις εταιρείες τεχνολογίας που αναπτύσσουν την τεχνητή νοημοσύνη να προχωρήσουν με πολύ μεγαλύτερη προσοχή από όσο μέχρι τώρα. Αν ένα μοντέλο ΑΙ προκαλέσει σοβαρή βλάβη, δεν είναι ακόμη σαφές πότε οι προγραμματιστές θα θεωρηθούν υπεύθυνοι. Οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να αποσαφηνίσουν αυτούς τους κανόνες για να διασφαλίσουν ότι οι εταιρείες και οι ερευνητές θα θεωρηθούν κατάλληλα υπεύθυνοι αν, για παράδειγμα, ένα από τα μοντέλα τους παρείχε λεπτομερείς συμβουλές που βοηθούσαν έναν δράστη πυροβολισμών σε σχολείο. Τέτοιοι κανονισμοί θα έδιναν κίνητρο στις εταιρείες να προσπαθήσουν να προβλέψουν και να μετριάσουν τους κινδύνους.

Οι κυβερνήσεις θα πρέπει επίσης να ρυθμίζουν άμεσα την ανάπτυξη της ΑΙ. Εδώ, οι Ηνωμένες Πολιτείες μπορούν -και πρέπει- να πρωτοστατήσουν. Για την επιτυχή εκπαίδευση ενός συστήματος ΑΙ, οι προγραμματιστές χρειάζονται μεγάλες ποσότητες εξαιρετικά εξειδικευμένων τσιπ και η Ουάσινγκτον και δύο στενοί σύμμαχοι (Ιαπωνία και Ολλανδία) είναι οι μοναδικοί προμηθευτές του εξοπλισμού που απαιτείται για την παραγωγή αυτού του υλικού. Οι Ηνωμένες Πολιτείες και οι εταίροι τους έχουν ήδη θέσει ελέγχους στις εξαγωγές των πιο προηγμένων τσιπ τεχνητής νοημοσύνης και του εξοπλισμού κατασκευής τσιπ στην Κίνα. Θα πρέπει όμως να προχωρήσουν περαιτέρω, δημιουργώντας ένα μητρώο ιδιοκτησίας των τσιπ για να σταματήσουν την εκτροπή των προηγμένων τσιπ σε απαγορευμένους δρώντες, συμπεριλαμβανομένων των αδίστακτων κρατών.

Ωστόσο, ο έλεγχος της πρόσβασης στην ΑΙ είναι μόνο το ήμισυ της ρυθμιστικής μάχης. Ακόμη και οι υπό περιορισμό προγραμματιστές μπορούν να δημιουργήσουν επικίνδυνα μοντέλα και αυτή την στιγμή η κυβέρνηση των ΗΠΑ δεν διαθέτει τα νομικά εργαλεία για να παρέμβει. Επομένως, η Ουάσινγκτον θα πρέπει να θεσπίσει ένα καθεστώς αδειοδότησης για τα μοντέλα αιχμής ΑΙ -αυτά που βρίσκονται κοντά ή πέρα από τις δυνατότητες των πιο προηγμένων σημερινών συστημάτων- τα οποία εκπαιδεύονται σε βιομηχανικής κλίμακας υπερυπολογιστές ΑΙ. Για να γίνει αυτό, οι υπεύθυνοι χάραξης πολιτικής θα μπορούσαν να δημιουργήσουν έναν νέο ρυθμιστικό φορέα που θα στεγάζεται στο Υπουργείο Εμπορίου ή στο Υπουργείο Ενέργειας. Ο φορέας αυτός θα πρέπει να απαιτεί από τους προγραμματιστές των πρωτοποριακών ΑΙ να διενεργούν αξιολογήσεις κινδύνου (risk assessments) και να αναφέρουν τα ευρήματά τους πριν εκπαιδεύσουν τα μοντέλα τους. Οι αξιολογήσεις θα παρέχουν μεγαλύτερη διαφάνεια στην ανάπτυξη και θα δίνουν την ευκαιρία στις ρυθμιστικές Αρχές να απαιτήσουν από τις εταιρείες να προσαρμόσουν τα σχέδιά τους, όπως ενισχύοντας τα μέτρα κυβερνοασφάλειας για την αποτροπή κλοπής μοντέλων.

Η αρχική αξιολόγηση κινδύνου θα είναι μόνο η εκκίνηση της εξέτασης από τις ρυθμιστικές Αρχές. Αφότου τα εργαστήρια τεχνητής νοημοσύνης εκπαιδεύσουν ένα σύστημα, αλλά πριν το αναπτύξουν, ο οργανισμός θα πρέπει να απαιτήσει από τα εργαστήρια να διεξάγουν μια άλλη ενδελεχή σειρά αξιολόγησης κινδύνου, συμπεριλαμβανομένης της δοκιμής του μοντέλου για το πόσο ελεγχόμενο είναι και τις επικίνδυνες δυνατότητες που έχει. Οι αξιολογήσεις αυτές θα πρέπει να αποστέλλονται στον ρυθμιστικό φορέα, ο οποίος στην συνέχεια θα υποβάλλει το μοντέλο στην δική του εντατική εξέταση, μεταξύ άλλων με την διεξαγωγή δοκιμών πίεσης (stress tests) από εξωτερικές ομάδες για την αναζήτηση ελαττωμάτων.

Στην συνέχεια, οι ρυθμιστικές Αρχές θα θεσπίσουν κανόνες για τον τρόπο με τον οποίο μπορεί να αναπτυχθεί το μοντέλο. Θα μπορούσαν να καθορίσουν ότι ορισμένα μοντέλα μπορούν να διατεθούν ευρέως. Ίσως να αποφασίσουν ότι άλλα είναι τόσο επικίνδυνα που δεν μπορούν να κυκλοφορήσουν καθόλου. Τα περισσότερα μοντέλα είναι πιθανό να βρίσκονται κάπου στο ενδιάμεσο: ασφαλή, αλλά μόνο με επαρκείς προστασίες. Αρχικά, ο οργανισμός θα μπορούσε να υιοθετήσει μια προσεκτική προσέγγιση, θέτοντας περιορισμούς σε μοντέλα που αργότερα αποδεικνύονται ασφαλή, αφήνοντας την κοινωνία να προσαρμοστεί στην χρήση τους και δίνοντας χρόνο στις ρυθμιστικές Αρχές να μάθουν για τις επιπτώσεις τους. Ο οργανισμός μπορεί πάντα να προσαρμόσει τους κανόνες αυτούς αργότερα, αν ένα μοντέλο αποδειχθεί ότι έχει λίγους κινδύνους. Ο οργανισμός θα μπορούσε επίσης να αποσύρει ένα σύστημα από την αγορά αν αποδειχθεί ότι είναι πιο επικίνδυνο από το αναμενόμενο. Αυτή η ρυθμιστική προσέγγιση θα αντικατοπτρίζει τον τρόπο με τον οποίο διέπονται άλλες σημαντικές τεχνολογίες, όπως η βιοτεχνολογία, τα εμπορικά αεροπλάνα, και τα αυτοκίνητα.