Φονικές εφαρμογές | Foreign Affairs - Hellenic Edition
Secure Connection

Φονικές εφαρμογές

Οι πραγματικοί κίνδυνοι μιας κούρσας εξοπλισμών τεχνητής νοημοσύνης*

Από την ανακάλυψη της βαθιάς εκμάθησης το 2012, οι ερευνητές δημιούργησαν συστήματα AI που μπορούν να φτάσουν ή να ξεπεράσουν τις καλύτερες επιδόσεις του ανθρώπου στο να αναγνωρίζουν πρόσωπα, να εντοπίζουν αντικείμενα, να μεταγράφουν ομιλίες και να παίζουν σύνθετα παιχνίδια, συμπεριλαμβανομένου του κινεζικού επιτραπέζιου παιχνιδιού γκο [5] και του παιχνιδιού υπολογιστών σε πραγματικό χρόνο StarCraft. Η βαθιά εκμάθηση άρχισε επίσης να ξεπερνά τα παλαιότερα συστήματα ΑΙ που βασίζονται σε κανόνες. Το 2018, ένας αλγόριθμος βαθιάς μάθησης νίκησε [6] το βασικό πρόγραμμα υπολογιστή για σκάκι αφού πέρασε μόλις τέσσερις ώρες παίζοντας εκατομμύρια παιχνίδια ενάντια στον εαυτό του σε έναν τεράστιο υπερυπολογιστή χωρίς κανένα ανθρώπινο δεδομένο εκπαίδευσης ή κανόνες γραμμένους με το χέρι για να καθοδηγήσουν την συμπεριφορά του.

Οι ερευνητές εφαρμόζουν τώρα την AI σε πλήθος προβλημάτων του πραγματικού κόσμου, από την διάγνωση καρκίνων του δέρματος έως την οδήγηση αυτοκινήτων και μέχρι την βελτιστοποίηση της ενεργειακής απόδοσης. Σύμφωνα με μια εκτίμηση [7] της συμβουλευτικής εταιρείας McKinsey, σχεδόν το ήμισυ του συνόλου των καθηκόντων που πληρώνονται άνθρωποι για να τα εκτελέσουν στις Ηνωμένες Πολιτείες θα μπορούσε να αυτοματοποιηθεί με την υπάρχουσα τεχνολογία (αν και θα μπορούσε να εξαλειφθεί εξ ολοκλήρου λιγότερο από το 5% των θέσεων εργασίας). Τα εργαλεία AI γίνονται επίσης ευρύτερα διαθέσιμα. Μεγάλοι οργανισμοί είναι πιο πιθανό να κάνουν σημαντικές ανακαλύψεις, χάρη στην ικανότητά τους να συγκεντρώνουν μεγάλα σύνολα δεδομένων και τεράστιες ποσότητες υπολογιστικής ισχύος [8]. Αλλά πολλά από τα εργαλεία AI που προκύπτουν είναι διαθέσιμα στο διαδίκτυο για να τα χρησιμοποιήσει οποιοσδήποτε. Τα δωρεάν μαθήματα προγραμματισμού διδάσκουν στους ανθρώπους πώς να κάνουν τα δικά τους συστήματα AI και τα εκπαιδευμένα νευρωνικά δίκτυα είναι δωρεάν για να μεταφορτωθούν (download). Η προσβασιμότητα θα ωθήσει την καινοτομία, αλλά η τοποθέτηση ισχυρών εργαλείων AI στα χέρια οποιουδήποτε τα θέλει, θα βοηθήσει και αυτούς που θέλουν να κάνουν ζημιά.

ΠΛΗΡΟΦΟΡΙΕΣ ΑΥΤΑΡΧΙΚΩΝ

Η ζημιά από την κακή χρήση της AI δεν είναι υποθετική˙ είναι ήδη εδώ. Τα bots χρησιμοποιούνται τακτικά για να χειραγωγούν τα κοινωνικά μέσα, ενισχύοντας κάποια μηνύματα και καταπνίγοντας άλλα. Τα deepfakes, τα ψευδή βίντεο που έχουν δημιουργηθεί με AI, έχουν χρησιμοποιηθεί σε λεγόμενες εκδικητικές πορνογραφικές επιθέσεις, στις οποίες το πρόσωπο ενός ατόμου είναι ψηφιακά προσαρμοσμένο στο σώμα ενός πορνογραφικού ηθοποιού.

Αυτά τα παραδείγματα είναι μόνο η αρχή. Οι πολιτικές εκστρατείες θα χρησιμοποιούν αναλύσεις δεδομένων που βασίζονται σε AI για να στοχεύουν άτομα με πολιτική προπαγάνδα ειδικά προσαρμοσμένη για αυτούς. Οι εταιρείες θα χρησιμοποιούν τις ίδιες αναλύσεις για τον σχεδιασμό διαφήμισης χειραγώγησης. Οι ψηφιακοί κλέφτες θα χρησιμοποιούν τα εργαλεία AI για να δημιουργήσουν αποτελεσματικότερες επιθέσεις phishing. Τα bots θα είναι σε θέση να μιμηθούν πειστικά ανθρώπους σε απευθείας σύνδεση και μέσω τηλεφώνου κλωνοποιώντας την φωνή ενός ατόμου με μόλις ένα λεπτό ήχου [στην διάθεσή τους]. Οποιαδήποτε αλληλεπίδραση που δεν θα γίνεται αυτοπροσώπως θα είναι ύποπτη. Οι ειδικοί ασφαλείας έχουν δείξει ότι είναι δυνατή η διείσδυση (hack) σε αυτόνομα αυτοκίνητα, απενεργοποιώντας το σύστημα διεύθυνσης και τα φρένα. Ένα άτομο και μόνο θα μπορούσε να κατασχέσει παράνομα ολόκληρο στόλο οχημάτων με μερικές πληκτρολογήσεις, να δημιουργήσει μια κυκλοφοριακή συμφόρηση ή να ξεκινήσει μια τρομοκρατική επίθεση.

Η δύναμη της ΑΙ ως εργαλείου καταπίεσης είναι ακόμα πιο τρομακτική. Οι αυταρχικές κυβερνήσεις θα μπορούσαν να χρησιμοποιήσουν τα deepfakes για να δυσφημήσουν αντιφρονούντες, την αναγνώριση προσώπου για να επιτρέψουν τη μαζική επιτήρηση καθ’ όλο το εικοσιτετράωρο, και τις προγνωστικές αναλύσεις για τον εντοπισμό πιθανών ταραξιών. Η Κίνα έχει ήδη ξεκινήσει να βαδίζει στον δρόμο προς τον ψηφιακό αυταρχισμό. Έχει εκκινήσει μια μαζική εκστρατεία καταστολής [9] κατά του πληθυσμού των Μουσουλμάνων Ουιγούρων στην επαρχία Xinjiang. Πολλά από τα εργαλεία που χρησιμοποιεί η κυβέρνηση είναι χαμηλής τεχνολογίας, αλλά έχει επίσης αρχίσει να χρησιμοποιεί στοιχεία ανάλυσης δεδομένων (data analytics), συστήματα αναγνώρισης προσώπου, και προληπτική αστυνόμευση [10] (χρήση δεδομένων για την πρόβλεψη εγκληματικής δραστηριότητας). Τεράστια δίκτυα από κάμερες παρακολούθησης συνδέονται [11] με αλγόριθμους που μπορούν να ανιχνεύσουν [12] ανώμαλη συμπεριφορά πολιτών, από αντικανονικά σταθμευμένα οχήματα έως άτομα που τρέχουν εκεί όπου δεν επιτρέπεται. Η κινεζική εταιρεία Yuntian Lifei Technology υπερηφανεύεται [13] ότι το έξυπνο σύστημά της για βίντεοπαρακολούθηση έχει αναπτυχθεί σε σχεδόν 80 κινέζικες πόλεις και έχει εντοπίσει περίπου 6.000 περιστατικά που σχετίζονται με την «κοινωνική διακυβέρνηση». Ορισμένοι από τους τρόπους με τους οποίους οι κινεζικές Αρχές χρησιμοποιούν τώρα την AI φαίνονται ασήμαντοι, όπως η παρακολούθηση του πόσο χαρτί υγείας χρησιμοποιούν οι άνθρωποι στις δημόσιες τουαλέτες. Οι προτεινόμενες μελλοντικές χρήσεις της είναι πιο επιθετικές, όπως η παρακολούθηση των τρόπων χρήσης της ηλεκτρικής ενέργειας για σημάδια ύποπτης δραστηριότητας.

Η Κίνα δεν οικοδομεί μόνο ένα κράτος τεχνο-δυστοπικής επιτήρησης εγχωρίως˙ άρχισε επίσης να εξάγει την τεχνολογία της. Το 2018, η Ζιμπάμπουε υπέγραψε συμφωνία με την κινεζική εταιρεία CloudWalk Technology για την δημιουργία εθνικής βάσης δεδομένων προσώπων και την εγκατάσταση συστημάτων επιτήρησης αναγνώρισης προσώπου σε αεροδρόμια, σιδηροδρομικούς σταθμούς και στάσεις λεωφορείων. Υπάρχουν πολλά περισσότερα που διακυβεύονται στην συμφωνία πέρα από τα χρήματα. Η Ζιμπάμπουε συμφώνησε να αφήσει το CloudWalk να στέλνει δεδομένα από εκατομμύρια πρόσωπα πίσω στην Κίνα, βοηθώντας την εταιρεία να βελτιώσει τα συστήματα αναγνώρισης προσώπου για άτομα με σκούρο δέρμα. Η Κίνα σχεδιάζει επίσης να πουλήσει τεχνολογία επιτήρησης στη Μαλαισία, τη Μογγολία και την Σιγκαπούρη.