Κανόνες στην τεχνητή νοημοσύνη από την Ευρωπαϊκή Ένωση | Foreign Affairs - Hellenic Edition
Secure Connection

Κανόνες στην τεχνητή νοημοσύνη από την Ευρωπαϊκή Ένωση

Η ΑΙ πρέπει να είναι νόμιμη, ηθική, και συνεπής
Περίληψη: 

Ο προτεινόμενος Κανονισμός της Τεχνητής Νοημοσύνης, αποτελούμενος από 85 άρθρα, εισάγει μια κατηγοριοποίηση των συστημάτων ΑΙ, με εύρος ρίσκου που κυμαίνεται από «Απαράδεκτο», έως «Υψηλό», έως «Περιορισμένο-Ήσσονος σημασίας».

Ο ΓΙΩΡΓΟΣ ΚΟΥΒΑΡΑΣ είναι νομικός, ΠΜΣ Δημόσιο Διεθνές Δίκαιο στο Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών, και στέλεχος στην δικηγορική εταιρεία LamnidisLaw.

Η θέσπιση κανόνων για την Τεχνητή Νοημοσύνη (Artificial Intelligence, AI) αποτελεί σημαντικό μέρος της ατζέντας των διεθνών νομοπαρασκευαστικών φορέων με παγκόσμιο βεληνεκές. Παράλληλα, χαρακτηριστικό γνώρισμα της AI αποτελεί το γεγονός ότι θέτει εξαιρετικά δυσεπίλυτα ζητήματα, τα οποία ουδέποτε έχουν αντιμετωπισθεί στο παρελθόν, προκαλώντας τα όρια της σύγχρονης νομοπαρασκευαστικής διαδικασίας.

Από πλευράς της Ευρωπαϊκής Ένωσης, το πρώτο βήμα τελέστηκε το 2018, με την ίδρυση της Ομάδας Εμπειρογνωμόνων Υψηλού Επιπέδου για την AI (High-Level Expert Group on AI, HLEG). Η εν λόγω Ομάδα έθεσε τον πήχη της «Αξιόπιστης AI», σε τρεις απαραίτητες, αλλά όχι και επαρκείς προϋποθέσεις. Συγκεκριμένα, η τεχνητή νοημοσύνη θα πρέπει καθ’ όλη την λειτουργία της να είναι «νόμιμη», «ηθική» και «συνεπής».

09062021-1.jpg

Ένα μέλος του προσωπικού, φορώντας μάσκα προσώπου μετά το ξέσπασμα της νόσου του κορωνοϊού (COVID-19), κοιτάζει ένα ρομπότ στον χώρο του Παγκόσμιου Συνεδρίου Τεχνητής Νοημοσύνης (WAIC) στην Σαγκάη της Κίνας στις 9 Ιουλίου του 2020. REUTERS/Aly Song
------------------------------------------------------

Στο αυτό μήκος κύματος, η Ευρωπαϊκή Επιτροπή στις 21 Απριλίου 2021 δημοσίευσε μια πρόταση για την ρύθμιση της ΑΙ μέσω Ευρωπαϊκού Κανονισμού, αποσκοπώντας να αποτελέσει η Ευρωπαϊκή Ένωση τον πρώτο νομοθέτη που θα ρυθμίσει ενιαία την τεχνητή νοημοσύνη. Σύμφωνα με την πρόταση, υφίσταται ανάγκη να διασφαλισθεί ενιαία αντιμετώπιση, τόσο για τις διατάξεις, όσο και για τους ίδιους τους ορισμούς, ώστε να επιτευχθεί η αποτελεσματική εφαρμογή της όποιας ρύθμισης. Αυτό οδήγησε στην επιλογή του εργαλείου του Ευρωπαϊκού Κανονισμού, έναντι της Ευρωπαϊκής Οδηγίας.

Αρχικά, κατά τον επιλεγέντα ορισμό στο πλαίσιο της πρότασης, η τεχνητή νοημοσύνη αποτελεί «λογισμικό που αναπτύσσεται με μια ή περισσότερες τεχνικές και προσεγγίσεις, οι οποίες παρατίθενται στο Παράρτημα Ι και δύναται, για σκοπούς οι οποίοι έχουν προκαθοριστεί από ανθρώπους να παράγει αποτελέσματα όπως περιεχόμενο, προβλέψεις, προτροπές ή αποφάσεις, οι οποίες ασκούν επιρροή στο περιβάλλον με το οποίο αλληλεπιδρούν». Η ανάπτυξη του λογισμικού, η οποία είναι και ένα κατ’ εξοχήν τεχνικό στοιχείο του ορισμού, διευκρινίζεται περαιτέρω στο Παράτημα, με σκοπό να μπορεί να προσαρμόζεται αναλόγως με την τεχνολογική πρόοδο. Τα υπόλοιπα καίρια σημεία του ορισμού είναι η παραγωγή αποτελεσμάτων και η προϋπόθεση οι στόχοι της ΑΙ να είναι προσδιορισμένοι από ανθρώπινο ον.

Επιπροσθέτως, η Επιτροπή κατέληξε μέσω της μεθοδολογίας της «Πρακτικής για την Βελτίωση της Νομοθεσίας» ότι είναι περισσότερο επωφελές να υιοθετηθεί μια προσέγγιση με βάση τον κίνδυνο που θέτει η κάθε μορφής ΑΙ και να τεθούν αυστηροί κανόνες μόνον για την τεχνητή νοημοσύνη «υψηλού κινδύνου». Αντίστοιχα, η ρύθμιση των μορφών ΑΙ που χαρακτηρίζονται ως ηπιότερου κινδύνου ρυθμίζονται από το «ηπιότερο» εργαλείο του κώδικα δεοντολογίας. Σε αυτό το πλαίσιο, υφίστανται, βεβαίως, και συγκεκριμένες μορφές ΑΙ οι οποίες είναι κατά κανόνα απαγορευμένες. Η εν λόγω απαγόρευση προβλέπεται στη βάση της διαπίστωσης ότι συγκεκριμένες μορφές ΑΙ αντιτίθενται με θεμελιώδεις κανόνες και αρχές της ΕΕ. Τα πιο χαρακτηριστικά παραδείγματα απαγορευμένου λογισμικού είναι η τεχνητή νοημοσύνη που διαταράσσει την ανθρώπινη συμπεριφορά μέσω ασυνείδητων μηνυμάτων, καθώς και τα συστήματα βιομετρικής ταυτοποίησης σε «πραγματικό χρόνο», που εγκαθίστανται σε δημοσίως προσβάσιμους χώρους.

Επομένως, ο προτεινόμενος Κανονισμός της Τεχνητής Νοημοσύνης, αποτελούμενος από 85 άρθρα, εισάγει μια κατηγοριοποίηση των συστημάτων ΑΙ, με εύρος ρίσκου που κυμαίνεται από «Απαράδεκτο», έως «Υψηλό», έως «Περιορισμένο-Ήσσονος σημασίας». Ως «Υψηλού Ρίσκου» τεχνητή νοημοσύνη, ο προτεινόμενος Κανονισμός προκρίνει το εξής: «συστήματα ΑΙ για τα οποία υπάρχει πρόθεση να χρησιμοποιηθούν ως συστατικό ασφαλείας προϊόντων που υπόκεινται σε εκ των υστέρων αξιολόγηση συμμόρφωσης από τρίτα μέρη», καθώς και δια της αναφοράς σε κατηγορίες οι οποίες θέτουν σε κίνδυνο θεμελιώδη δικαιώματα ατόμων, τα οποία καθορίζονται λεπτομερέστερα στα Παραρτήματα της πρότασης. Επί παραδείγματι, η πρόταση αναφέρει διαγνωστικά συστήματα τεχνητής νοημοσύνης, καθώς και αυτόνομα ρομπότ στην παραγωγική διαδικασία και στην υποβοήθηση ατόμων ως συστήματα, τα οποία θα μπορούσαν να χαρακτηρισθούν ως «υψηλού κινδύνου».

Αναφορικά με την ΑΙ υψηλού ρίσκου, ο προτεινόμενος κανονισμός προβλέπει περιορισμούς και βάρη. Ειδικότερα για την ΑΙ που αναπτύσσεται μέσω εκπαιδευτικών μοντέλων με δεδομένα, προβλέπονται περιορισμοί σχετικά με την ποιότητα και την ποσότητα των αξιοποιούμενων δεδομένων. Δηλαδή, τα δεδομένα θα πρέπει να ελέγχονται σε πολλαπλές βάσεις, όπως για παράδειγμα η διαδικασία συλλογής τους, η πιθανότητα να οδηγήσουν στην δημιουργία διακρίσεων, η καταλληλότητά τους, καθώς και πιθανά κενά που θα μπορούσαν να προκύψουν.