Πώς να αποτραπεί μια καταστροφή από την Τεχνητή Νοημοσύνη
Οι ευκαιρίες που προσφέρει η τεχνητή νοημοσύνη είναι τεράστιες. Αν δημιουργηθεί σωστά και τύχει σωστής διαχείρισης, θα μπορούσε να κάνει πολλά για την βελτίωση της κοινωνίας. Αλλά η AI ενέχει επίσης τεράστιους κινδύνους. Ήδη επιδεινώνει την διάδοση της παραπληροφόρησης, προωθεί τις διακρίσεις, και διευκολύνει την κατασκοπεία από κράτη και εταιρείες.
Ο MARKUS ANDERLJUNG είναι επικεφαλής πολιτικής στο Centre for the Governance of AI και αναπληρωτής συνεργάτης στο Center for a New American Security.
Ο PAUL SCHARRE είναι εκτελεστικός αντιπρόεδρος και διευθυντής Μελετών στο Center for a New American Security και συγγραφέας του βιβλίου με τίτλο Four Battlegrounds: Power in the Age of Artificial Intelligence [1].
- previous
- Page 5of 5
- next-disabled
Οι δημιουργοί της τεχνητής νοημοσύνης ίσως να αντιδράσουν στην ιδέα των αυστηρών κανονισμών. Οι αυστηροί κανόνες, άλλωστε, θα επιβραδύνουν την ανάπτυξη. Οι αυστηρές προϋποθέσεις θα μπορούσαν να καθυστερήσουν ή ακόμη και να ακυρώσουν μοντέλα [αξίας] δισεκατομμυρίων δολαρίων. Και όπως και σε άλλους κλάδους, οι αυστηροί κανόνες θα μπορούσαν να δημιουργήσουν εμπόδια στην είσοδο στην αγορά, μειώνοντας την καινοτομία και συγκεντρώνοντας την ανάπτυξη της τεχνητής νοημοσύνης σε έναν μικρό αριθμό ήδη ισχυρών τεχνολογικών εταιρειών.
Όμως, πολλοί άλλοι τομείς έχουν σημειώσει τεράστια πρόοδο ενώ είναι ρυθμιζόμενοι, όπως η φαρμακευτική βιομηχανία και ο τομέας της πυρηνικής ενέργειας. Στην πραγματικότητα, η ρύθμιση κατέστησε δυνατή την υιοθέτηση πολλών κρίσιμων τεχνολογιών από την κοινωνία. (Φανταστείτε μόνο πόσο χειρότερος θα ήταν ο σκεπτικισμός για τα εμβόλια αν δεν υπήρχε ισχυρή κρατική εποπτεία). Οι κανονισμοί παρέχουν επίσης κίνητρα στις επιχειρήσεις να καινοτομούν όσον αφορά την ασφάλεια, διασφαλίζοντας ότι η ιδιωτική έρευνα είναι ευθυγραμμισμένη με τις δημόσιες ανάγκες. Και οι κυβερνήσεις μπορούν να εγγυηθούν ότι οι μικροί παίκτες συμβάλλουν στην καινοτομία της τεχνητής νοημοσύνης, παραχωρώντας τους την χρήση προηγμένων τσιπ σε υπεύθυνους ερευνητές. Στις Ηνωμένες Πολιτείες, για παράδειγμα, το Κογκρέσο σκέφτεται να δημιουργήσει έναν «Εθνικό Πόρο Έρευνας Τεχνητής Νοημοσύνης»: μια ομοσπονδιακή παροχή δεδομένων και ισχυρού υπολογιστικού υλικού προσβάσιμου σε ακαδημαϊκούς.
Αλλά το Κογκρέσο δεν μπορεί να σταματήσει εκεί -ή στον έλεγχο της ανάπτυξης της τεχνητής νοημοσύνης. Η κυβέρνηση των ΗΠΑ πρέπει επίσης να λάβει μέτρα για να προετοιμάσει την κοινωνία για τους κινδύνους της ΑΙ. Η ανάπτυξη ισχυρών συστημάτων τεχνητής νοημοσύνης είναι αναπόφευκτη και οι άνθρωποι παντού πρέπει να είναι προετοιμασμένοι για το τι θα κάνουν αυτές οι τεχνολογίες στις κοινότητές τους και στον ευρύτερο κόσμο. Μόνο τότε μπορεί η κοινωνία να αποκομίσει τα τεράστια οφέλη που μπορεί να φέρει η τεχνητή νοημοσύνη.
Σύνδεσμοι:
[1] https://wwnorton.com/books/9780393866865#!
[2] https://www.youtube.com/watch?v=g7YJIpkk7KM
[3] https://evals.alignment.org/blog/2023-08-01-new-report/
Copyright © 2023 by the Council on Foreign Relations, Inc.
All rights reserved.
Στα αγγλικά: https://www.foreignaffairs.com/world/how-prevent-ai-catastrophe-artifici...
Μπορείτε να ακολουθείτε το «Foreign Affairs, The Hellenic Edition» στο TWITTER στην διεύθυνση www.twitter.com/foreigngr αλλά και στο FACEBOOK, στην διεύθυνση www.facebook.com/ForeignAffairs.gr και στο linkedin στην διεύθυνση https://www.linkedin.com/company/foreign-affairs-the-hellenic-edition
- previous
- Page 5of 5
- next-disabled