Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη | Foreign Affairs - Hellenic Edition
Secure Connection

Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη

Η κοινωνία πρέπει να προετοιμαστεί για την πολύ ισχυρή τεχνητή νοημοσύνη

ΕΤΟΙΜΑΣΤΕΙΤΕ ΓΙΑ ΠΡΟΣΚΡΟΥΣΗ

Ένα αυστηρό σύστημα αδειοδότησης θα συμβάλει σε μεγάλο βαθμό στην προώθηση της ασφαλούς ανάπτυξης. Αλλά τελικά, ακόμη και οι αυστηρότεροι κανονισμοί δεν μπορούν να σταματήσουν την εξάπλωση της τεχνητής νοημοσύνης. Σχεδόν κάθε σύγχρονη τεχνολογική καινοτομία, από τα τρένα μέχρι τα πυρηνικά όπλα, έχει εξαπλωθεί πέρα από τους δημιουργούς της, και η τεχνητή νοημοσύνη δεν θα αποτελέσει εξαίρεση. Τα εξελιγμένα συστήματα θα μπορούσαν να διαδοθούν μέσω κλοπής ή διαρροών, συμπεριλαμβανομένης της τεχνητής νοημοσύνης που οι ρυθμιστικές Αρχές απαγορεύουν να κυκλοφορήσει.

Ακόμα και χωρίς την κλοπή, η ισχυρή τεχνητή νοημοσύνη είναι σχεδόν βέβαιο ότι θα διαδοθεί. Οι Ηνωμένες Πολιτείες και οι σύμμαχοί τους ίσως να ελέγχουν προς το παρόν τον προηγμένο εξοπλισμό κατασκευής τσιπ. Αλλά οι ανταγωνιστές των ΗΠΑ εργάζονται για την ανάπτυξη δικού τους εξοπλισμού κατασκευής και οι εφευρέτες ίσως να βρουν τρόπους να δημιουργήσουν τεχνητή νοημοσύνη χωρίς εξελιγμένα τσιπ. Κάθε χρόνο, το υπολογιστικό υλικό γίνεται πιο αποδοτικό από άποψη κόστους, καθιστώντας δυνατή την εκπαίδευση ισχυρότερων μοντέλων τεχνητής νοημοσύνης σε χαμηλότερη τιμή. Εν τω μεταξύ, οι μηχανικοί συνεχίζουν να εντοπίζουν τρόπους εκπαίδευσης μοντέλων με λιγότερους υπολογιστικούς πόρους. Η κοινωνία θα πρέπει τελικά να ζήσει με ευρέως διαθέσιμη, πολύ ισχυρή τεχνητή νοημοσύνη. Και τα κράτη θα πρέπει να χρησιμοποιήσουν τον χρόνο που θα κερδίσουν από την ρύθμιση για να δημιουργήσουν λειτουργικές διασφαλίσεις.

Σε κάποιο βαθμό, οι χώρες έχουν ήδη ξεκινήσει. Τα τελευταία πέντε χρόνια, ο κόσμος έχει προειδοποιηθεί για τους κινδύνους των deepfakes, και οι προειδοποιήσεις βοήθησαν να εμβολιαστούν οι κοινότητες ενάντια στις ζημιές: απλά αυξάνοντας την ευαισθητοποίηση σχετικά με τα μέσα ενημέρωσης που χειραγωγούνται από την τεχνητή νοημοσύνη, οι άνθρωποι έμαθαν να είναι επιφυλακτικοί ως προς την γνησιότητα των εικόνων. Οι επιχειρήσεις και οι κυβερνήσεις έχουν αρχίσει να προχωρούν ένα βήμα παραπέρα, αναπτύσσοντας εργαλεία που διακρίνουν ξεκάθαρα τα μέσα που δημιουργούνται με τεχνητή νοημοσύνη από το αυθεντικό περιεχόμενο. Στην πραγματικότητα, οι εταιρείες μέσων κοινωνικής δικτύωσης ήδη αναγνωρίζουν και επισημαίνουν ορισμένα είδη συνθετικών media. Αλλά ορισμένες πλατφόρμες έχουν πολιτικές που είναι πιο αδύναμες από άλλες και οι κυβερνήσεις θα πρέπει να θεσπίσουν ενιαίους κανονισμούς.

Ο Λευκός Οίκος έχει λάβει μέτρα για την δημιουργία πρακτικών σήμανσης, πείθοντας επτά κορυφαίες εταιρείες τεχνητής νοημοσύνης να θέσουν υδατογράφημα σε εικόνες, βίντεο, και προϊόντα ήχου που παράγονται αλγοριθμικά. Αλλά οι εταιρείες αυτές δεν έχουν ακόμη υποσχεθεί να αναγνωρίσουν το κείμενο που παράγεται από την ΑΙ. Υπάρχει μια τεχνική εξήγηση για το γιατί: ο εντοπισμός πεζού λόγου που έχει δημιουργηθεί με τεχνητή νοημοσύνη είναι πολύ πιο δύσκολος από όσο το κοσκίνισμα για άλλα είδη περιεχομένου που έχει δημιουργηθεί με τεχνητή νοημοσύνη. Μπορεί όμως να είναι ακόμα εφικτό, και τα κράτη και οι εταιρείες θα πρέπει να επενδύσουν στην δημιουργία εργαλείων που μπορούν να το κάνουν.

Η παραπληροφόρηση, ωστόσο, είναι μόνο ένας από τους κινδύνους της ΑΙ από τους οποίους πρέπει να προφυλαχθεί η κοινωνία. Οι ερευνητές πρέπει επίσης να μάθουν πώς μπορούν να αποτρέψουν τα μοντέλα ΑΙ από το να επιτρέψουν επιθέσεις με βιολογικά όπλα. Οι υπεύθυνοι χάραξης πολιτικής μπορούν να ξεκινήσουν με την δημιουργία κανονισμών που θα απαγορεύουν στις εταιρείες σύνθεσης DNA να αποστέλλουν αλληλουχίες DNA που σχετίζονται με επικίνδυνα παθογόνα (ή δυνητικά παθογόνα) σε μη εξουσιοδοτημένους πελάτες. Οι κυβερνήσεις θα πρέπει να υποστηρίξουν τις εταιρείες σύνθεσης DNA καθώς εργάζονται για να προσδιορίσουν ποιες γενετικές αλληλουχίες θα μπορούσαν να είναι επικίνδυνες. Και οι αξιωματούχοι ίσως να χρειαστεί να επιτηρούν συνεχώς τα λύματα ή τα αεροδρόμια για ενδείξεις νέων παθογόνων [μικροοργανισμών].

Μερικές φορές, για να δημιουργήσει αυτές τις άμυνες, η κοινωνία θα πρέπει να χρησιμοποιήσει την ίδια την τεχνητή νοημοσύνη. Οι εταιρείες σύνθεσης DNA, για παράδειγμα, θα χρειαστούν πιθανότατα προηγμένα συστήματα τεχνητής νοημοσύνης για τον εντοπισμό παθογόνων μικροοργανισμών που δεν υπάρχουν ακόμη, αλλά που η τεχνητή νοημοσύνη μπορεί να εφεύρει. Για να αποτρέψουν επικίνδυνα μοντέλα ΑΙ από το να χακάρουν υπολογιστικά συστήματα, οι εταιρείες κυβερνοασφάλειας θα μπορούσαν να χρειαστούν άλλα συστήματα ΑΙ για να βρίσκουν και να επιδιορθώνουν ευπάθειες.

Η χρήση της τεχνητής νοημοσύνης για την προστασία από την τεχνητή νοημοσύνη είναι μια τρομακτική προοπτική, δεδομένου ότι δίνει τεράστια επιρροή στα υπολογιστικά συστήματα (και στους κατασκευαστές τους). Ως αποτέλεσμα, οι προγραμματιστές θα πρέπει να ενισχύσουν την ασφάλεια των μοντέλων ΑΙ για να τα προστατεύσουν από την πειρατεία. Δυστυχώς, αυτοί οι επιστήμονες έχουν δουλειά μπροστά τους. Υπάρχουν πολυάριθμοι τρόποι χειραγώγησης των μοντέλων τεχνητής νοημοσύνης, πολλοί από τους οποίους έχουν ήδη αποδειχθεί ότι λειτουργούν.

Τελικά, θα είναι πολύ δύσκολο για την κοινωνία να συμβαδίσει με τους κινδύνους της τεχνητής νοημοσύνης, ειδικά αν οι επιστήμονες πετύχουν τον στόχο τους να δημιουργήσουν συστήματα που θα είναι εξίσου έξυπνα ή και εξυπνότερα από τους ανθρώπους. Επομένως, οι ερευνητές της ΑΙ πρέπει να διασφαλίσουν ότι τα μοντέλα τους είναι πραγματικά ευθυγραμμισμένα με τις αξίες και τα συμφέροντα της κοινωνίας. Τα κράτη πρέπει επίσης να καθιερώσουν εξωτερικούς ελέγχους και ισορροπίες -συμπεριλαμβανομένων των ρυθμιστικών οργανισμών- που θα επιτρέπουν στους αξιωματούχους να εντοπίζουν και να περιορίζουν τα επικίνδυνα μοντέλα.

ΠΡΩΤΑ Η ΑΣΦΑΛΕΙΑ