Κανόνες στην τεχνητή νοημοσύνη από την Ευρωπαϊκή Ένωση | Foreign Affairs - Hellenic Edition
Secure Connection

Κανόνες στην τεχνητή νοημοσύνη από την Ευρωπαϊκή Ένωση

Η ΑΙ πρέπει να είναι νόμιμη, ηθική, και συνεπής

Η θέσπιση κανόνων για την Τεχνητή Νοημοσύνη (Artificial Intelligence, AI) αποτελεί σημαντικό μέρος της ατζέντας των διεθνών νομοπαρασκευαστικών φορέων με παγκόσμιο βεληνεκές. Παράλληλα, χαρακτηριστικό γνώρισμα της AI αποτελεί το γεγονός ότι θέτει εξαιρετικά δυσεπίλυτα ζητήματα, τα οποία ουδέποτε έχουν αντιμετωπισθεί στο παρελθόν, προκαλώντας τα όρια της σύγχρονης νομοπαρασκευαστικής διαδικασίας.

Από πλευράς της Ευρωπαϊκής Ένωσης, το πρώτο βήμα τελέστηκε το 2018, με την ίδρυση της Ομάδας Εμπειρογνωμόνων Υψηλού Επιπέδου για την AI (High-Level Expert Group on AI, HLEG). Η εν λόγω Ομάδα έθεσε τον πήχη της «Αξιόπιστης AI», σε τρεις απαραίτητες, αλλά όχι και επαρκείς προϋποθέσεις. Συγκεκριμένα, η τεχνητή νοημοσύνη θα πρέπει καθ’ όλη την λειτουργία της να είναι «νόμιμη», «ηθική» και «συνεπής».

09062021-1.jpg

Ένα μέλος του προσωπικού, φορώντας μάσκα προσώπου μετά το ξέσπασμα της νόσου του κορωνοϊού (COVID-19), κοιτάζει ένα ρομπότ στον χώρο του Παγκόσμιου Συνεδρίου Τεχνητής Νοημοσύνης (WAIC) στην Σαγκάη της Κίνας στις 9 Ιουλίου του 2020. REUTERS/Aly Song
------------------------------------------------------

Στο αυτό μήκος κύματος, η Ευρωπαϊκή Επιτροπή στις 21 Απριλίου 2021 δημοσίευσε μια πρόταση για την ρύθμιση της ΑΙ μέσω Ευρωπαϊκού Κανονισμού, αποσκοπώντας να αποτελέσει η Ευρωπαϊκή Ένωση τον πρώτο νομοθέτη που θα ρυθμίσει ενιαία την τεχνητή νοημοσύνη. Σύμφωνα με την πρόταση, υφίσταται ανάγκη να διασφαλισθεί ενιαία αντιμετώπιση, τόσο για τις διατάξεις, όσο και για τους ίδιους τους ορισμούς, ώστε να επιτευχθεί η αποτελεσματική εφαρμογή της όποιας ρύθμισης. Αυτό οδήγησε στην επιλογή του εργαλείου του Ευρωπαϊκού Κανονισμού, έναντι της Ευρωπαϊκής Οδηγίας.

Αρχικά, κατά τον επιλεγέντα ορισμό στο πλαίσιο της πρότασης, η τεχνητή νοημοσύνη αποτελεί «λογισμικό που αναπτύσσεται με μια ή περισσότερες τεχνικές και προσεγγίσεις, οι οποίες παρατίθενται στο Παράρτημα Ι και δύναται, για σκοπούς οι οποίοι έχουν προκαθοριστεί από ανθρώπους να παράγει αποτελέσματα όπως περιεχόμενο, προβλέψεις, προτροπές ή αποφάσεις, οι οποίες ασκούν επιρροή στο περιβάλλον με το οποίο αλληλεπιδρούν». Η ανάπτυξη του λογισμικού, η οποία είναι και ένα κατ’ εξοχήν τεχνικό στοιχείο του ορισμού, διευκρινίζεται περαιτέρω στο Παράτημα, με σκοπό να μπορεί να προσαρμόζεται αναλόγως με την τεχνολογική πρόοδο. Τα υπόλοιπα καίρια σημεία του ορισμού είναι η παραγωγή αποτελεσμάτων και η προϋπόθεση οι στόχοι της ΑΙ να είναι προσδιορισμένοι από ανθρώπινο ον.

Επιπροσθέτως, η Επιτροπή κατέληξε μέσω της μεθοδολογίας της «Πρακτικής για την Βελτίωση της Νομοθεσίας» ότι είναι περισσότερο επωφελές να υιοθετηθεί μια προσέγγιση με βάση τον κίνδυνο που θέτει η κάθε μορφής ΑΙ και να τεθούν αυστηροί κανόνες μόνον για την τεχνητή νοημοσύνη «υψηλού κινδύνου». Αντίστοιχα, η ρύθμιση των μορφών ΑΙ που χαρακτηρίζονται ως ηπιότερου κινδύνου ρυθμίζονται από το «ηπιότερο» εργαλείο του κώδικα δεοντολογίας. Σε αυτό το πλαίσιο, υφίστανται, βεβαίως, και συγκεκριμένες μορφές ΑΙ οι οποίες είναι κατά κανόνα απαγορευμένες. Η εν λόγω απαγόρευση προβλέπεται στη βάση της διαπίστωσης ότι συγκεκριμένες μορφές ΑΙ αντιτίθενται με θεμελιώδεις κανόνες και αρχές της ΕΕ. Τα πιο χαρακτηριστικά παραδείγματα απαγορευμένου λογισμικού είναι η τεχνητή νοημοσύνη που διαταράσσει την ανθρώπινη συμπεριφορά μέσω ασυνείδητων μηνυμάτων, καθώς και τα συστήματα βιομετρικής ταυτοποίησης σε «πραγματικό χρόνο», που εγκαθίστανται σε δημοσίως προσβάσιμους χώρους.

Επομένως, ο προτεινόμενος Κανονισμός της Τεχνητής Νοημοσύνης, αποτελούμενος από 85 άρθρα, εισάγει μια κατηγοριοποίηση των συστημάτων ΑΙ, με εύρος ρίσκου που κυμαίνεται από «Απαράδεκτο», έως «Υψηλό», έως «Περιορισμένο-Ήσσονος σημασίας». Ως «Υψηλού Ρίσκου» τεχνητή νοημοσύνη, ο προτεινόμενος Κανονισμός προκρίνει το εξής: «συστήματα ΑΙ για τα οποία υπάρχει πρόθεση να χρησιμοποιηθούν ως συστατικό ασφαλείας προϊόντων που υπόκεινται σε εκ των υστέρων αξιολόγηση συμμόρφωσης από τρίτα μέρη», καθώς και δια της αναφοράς σε κατηγορίες οι οποίες θέτουν σε κίνδυνο θεμελιώδη δικαιώματα ατόμων, τα οποία καθορίζονται λεπτομερέστερα στα Παραρτήματα της πρότασης. Επί παραδείγματι, η πρόταση αναφέρει διαγνωστικά συστήματα τεχνητής νοημοσύνης, καθώς και αυτόνομα ρομπότ στην παραγωγική διαδικασία και στην υποβοήθηση ατόμων ως συστήματα, τα οποία θα μπορούσαν να χαρακτηρισθούν ως «υψηλού κινδύνου».

Αναφορικά με την ΑΙ υψηλού ρίσκου, ο προτεινόμενος κανονισμός προβλέπει περιορισμούς και βάρη. Ειδικότερα για την ΑΙ που αναπτύσσεται μέσω εκπαιδευτικών μοντέλων με δεδομένα, προβλέπονται περιορισμοί σχετικά με την ποιότητα και την ποσότητα των αξιοποιούμενων δεδομένων. Δηλαδή, τα δεδομένα θα πρέπει να ελέγχονται σε πολλαπλές βάσεις, όπως για παράδειγμα η διαδικασία συλλογής τους, η πιθανότητα να οδηγήσουν στην δημιουργία διακρίσεων, η καταλληλότητά τους, καθώς και πιθανά κενά που θα μπορούσαν να προκύψουν.

Γενικά, προβλέπεται ακόμη η λειτουργία συστημάτων διαχείρισης κινδύνου για κάθε ξεχωριστό λογισμικό τεχνητής νοημοσύνης υψηλού κινδύνου. Επιπροσθέτως, προβλέπεται και η υποχρέωση πρόβλεψης και εγκατάστασης της δυνατότητας διατήρησης αρχείων λειτουργίας ήδη από το στάδιο του σχεδιασμού ενός συστήματος Artificial Intelligence (AI) υψηλού κινδύνου. Αυτά τα αρχεία θα τηρούνται από τον πάροχο. Ακόμη, οι προγραμματιστές ΑΙ υψηλού ρίσκου θα πρέπει να σχεδιάζουν το λογισμικό, ώστε να εξασφαλίζεται διαφάνεια κατά την λειτουργία του. Αντίστοιχα, ο προτεινόμενος Κανονισμός θέτει και την υποχρέωση να εξασφαλίζεται αποτελεσματική ανθρώπινη επίβλεψη της λειτουργίας της ΑΙ σε κάθε στιγμή. Οι ανωτέρω αναφερόμενες υποχρεώσεις αποτελούν τμήμα μιας μακράς λίστας από προϋποθέσεις για αρκετούς εμπλεκόμενους φορείς, όπως οι πάροχοι, οι προγραμματιστές, οι χρήστες, οι εισαγωγείς, και ούτω καθ’ εξής, η αναλυτικότερη παρουσίαση των οποίων ξεπερνά μακράν τον σκοπό της παρούσας ενημέρωσης.

09062021-2.jpg

Η Ευρωπαϊκή Εκτελεστική Αντιπρόεδρος, Margrethe Vestager, και η Επίτροπος της Ευρωπαϊκής Εσωτερικής Αγοράς, Thierry Breton, στην συνέντευξη Τύπου για την προσέγγιση της ΕΕ στην Τεχνητή Νοημοσύνη, μετά από εβδομαδιαία συνεδρίαση της Επιτροπής της ΕΕ στις Βρυξέλλες, στο Βέλγιο, στις 21 Απριλίου 2021. Olivier Hoslet/Pool via REUTERS
---------------------------------------------------------------------------

Ο προτεινόμενος Κανονισμός περιέχει, επίσης, μηχανισμούς συμμόρφωσης, ώστε να εξασφαλισθεί η τήρηση του ανωτέρω πλαισίου. Τα κράτη-μέλη θα πρέπει, λοιπόν, να καθορίσουν τις υπεύθυνες Αρχές παρακολούθησης. Σε επίπεδο ΕΕ, ο Κανονισμός προβλέπει την ίδρυση «Ευρωπαϊκού Συμβουλίου Τεχνητής Νοημοσύνης», το οποίο θα διευκολύνει την συνεργασία μεταξύ των αρχών που έχουν διοριστεί από τα κράτη–μέλη, αλλά και την εφαρμογή του Κανονισμού. Ακόμη, υπάρχει η πρόβλεψη για μια ανοιχτή Ευρωπαϊκή βάση δεδομένων, στην οποία και θα καταγράφονται τα ανεξάρτητα συστήματα ΑΙ υψηλού κινδύνου. Τέλος, τίθενται και προϋποθέσεις πιστοποίησης, συμπεριλαμβανομένης και της τοποθέτησης, πιστοποίησης CE για τεχνητή νοημοσύνη υψηλού κινδύνου.

Είναι, επίσης, αξιοσημείωτο ότι υπάρχουν προβλέψεις που ρυθμίζουν την αλληλεπίδραση μεταξύ ανθρώπου και ΑΙ. Αναλυτικότερα, προτείνεται η υποχρέωση πληροφόρησης των φυσικών προσώπων, όταν αυτά πρόκειται να αλληλεπιδράσουν με λογισμικό (υποχρέωση διαφάνειας). Ακόμη, αυτό είναι σημαντικό και αναφορικά με τα λεγόμενα deepfakes, όπου θα πρέπει να καθίσταται σαφές ότι το περιεχόμενο που παρακολουθείται είναι προϊόν επεξεργασίας από τεχνητή νοημοσύνη.

Ο προτεινόμενος Κανονισμός επίσης περιέχει διατάξεις για την δημιουργία ενός πρόσφορου περιβάλλοντος για την ανάπτυξη και την καινοτομία. Αυτά περιλαμβάνουν την εγκατάσταση προστατευμένου κανονιστικού περιβάλλοντος, που θα επιτρέψει τον ασφαλή έλεγχο και την ανάπτυξη της ΑΙ, καθώς και μέτρων που αποσκοπούν στην υποβοήθηση των νεοσύστατων επιχειρήσεων και την μείωση της γραφειοκρατίας και του φόρτου εργασίας της διοίκησης.

Παράλληλα, έχει καταβληθεί αξιόλογη προσπάθεια, ώστε να διασφαλισθεί η συνοχή του προτεινόμενου με τον Κανονισμό πλαισίου με υφιστάμενη νομοθεσία της ΕΕ, όπως o Χάρτης Θεμελιωδών Δικαιωμάτων της ΕΕ και τον Γενικό Κανονισμό για την Προστασία των Προσωπικών Δεδομένων.

Χωρίς αμφιβολία, ο Κανονισμός αποτελεί το πρώτο βήμα ενός μεγάλου (νομοθετικού) ταξιδιού. Όπως και στην περίπτωση του GDPR, η ΕΕ λαμβάνει πρωτοβουλία, δημιουργώντας ρυθμιστικές τάσεις για περίπλοκα και επίκαιρα ζητήματα. Ο αντίκτυπος της πρωτοβουλίας αυτής μένει να φανεί, τόσο για την ευρωπαϊκή αγορά, όσο και για την γενικότερη θέση της ΕΕ στην λεγόμενη «κούρσα της Τεχνητής Νοημοσύνης».

Copyright © 2021 by the Council on Foreign Relations, Inc.
All rights reserved.

Μπορείτε να ακολουθείτε το «Foreign Affairs, The Hellenic Edition» στο TWITTER στην διεύθυνση www.twitter.com/foreigngr αλλά και στο FACEBOOK, στην διεύθυνση www.facebook.com/ForeignAffairs.gr και στο linkedin στην διεύθυνση https://www.linkedin.com/company/foreign-affairs-the-hellenic-edition