Γράφει ο Δρ. Μιχάλης Kρητικός, ερευνητής του ΕΛΙΑΜΕΠ, Ερευνητικού Εταίρου σε θέματα Τεχνητής Νοημοσύνης και Ψηφιακής Μετάβασης στη Σχολή Διακυβέρνησης του Ελεύθερου Πανεπιστημίου των Βρυξελλών
Η ταχεία ανάπτυξη μιας από τις πιο επιδραστικές τεχνολογίες των τελευταίων χρόνων έχει ήδη κινητοποιήσει το σύνολο των θεσμικών κυττάρων των ευρωπαϊκών οργάνων. Οι νομοθετικές προτάσεις της Επιτροπής, τα ψηφίσματα και οι αναφορές του Ευρωπαϊκού Κοινοβουλίου και τα συμπεράσματα του Συμβουλίου Υπουργών στον τομέα αυτό αντανακλούν τη βούληση της Ένωσης να διαδραματίσει έναν ισχυρό ρόλο για τον ρυθμιστικό έλεγχο αυτής της τεχνητής νοημοσύνης και να διαμορφώσει το περιεχόμενο και την κατεύθυνση των συναφών διεθνών συζητήσεων.
Στο πλαίσιο αυτό, η ανθρωποκεντρική προσέγγιση στο σχεδιασμό και στην εφαρμογή της τεχνητής νοημοσύνης αποτελεί τον ακρογωνιαίο λίθο της πολιτικής της ΕΕ στον εν λόγω τομέα. To μοντέλο που προωθεί η ΕΕ συνίσταται στη ρύθμιση των συστημάτων τεχνητής νοημοσύνης με γνώμονα την προστασία των θεμελιωδών ανθρωπίνων δικαιωμάτων επί τη βάσει ηθικών αρχών που έχει υιοθετήσει η ίδια η Ένωση.
Η εν λόγω προσέγγιση αναμένεται να λάβει νομική υπόσταση με την μορφή Κανονισμού[1] και την θέσπιση νομοθετικού πλαισίου που θα εναρμονίζει τους κανόνες για τη διάθεση στην αγορά ή τη χρήση συστημάτων τεχνητής νοημοσύνης στην ΕΕ, καθώς και τη θέσπιση ορισμένων απαγορεύσεων σε συγκεκριμένες πρακτικές και χρήσεις συστημάτων τεχνητής νοημοσύνης όπως την διάθεση στην αγορά συστήματος ΤΝ που χρησιμοποιεί βλαβερές τεχνικές οι οποίες απευθύνονται στο υποσυνείδητο ενός προσώπου, που εκμεταλλεύεται οποιοδήποτε από τα τρωτά σημεία συγκεκριμένης ομάδας προσώπων λόγω της ηλικίας, της σωματικής ή διανοητικής αναπηρίας τους, ή συστημάτων ΤΝ για την αξιολόγηση ή την ταξινόμηση της αξιοπιστίας των φυσικών προσώπων με βάση την κοινωνική τους συμπεριφορά ή την ρήση συστημάτων εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο», σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου.
Το μοντέλο αυτό φαίνεται να υιοθετείται πλέον και από άλλες χώρες, τεχνολογικές εταιρείες, πανεπιστήμια και διεθνείς οργανισμούς και φαίνεται να καθορίζει πλέον τον συνολικό διεθνή βηματισμό στο θέμα αυτό. Αυτό αποτυπώθηκε πρόσφατα και στη Διακήρυξη του Bletschley[2] αλλά και στα κείμενα που βρίσκονται υπό διαβούλευση αυτήν την στιγμή στο πλαίσιο του Συμβουλίου της Ευρώπης, της UNESCO αλλά και σε άλλους διεθνείς οργανισμούς[3].
Τα ερωτήματα που τίθενται από την υιοθέτηση αυτού του μοντέλου είναι πολλά. Με ποιο τρόπο ακριβώς θα λάβει σάρκα και οστά η συγκεκριμένη προσέγγιση; Αρκεί ο διαχωρισμός των πιθανών χρήσεων με βάση μια συγκεκριμένη κλίμακα κινδύνου; Ποιος θα είναι ο ρόλος της ηθικής και των επιτροπών ηθικής στην διαμόρφωση ενός πλαισίου ενίσχυσης της εμπιστοσύνης των πολιτών σε επιμέρους χρήσεις της ΤΝ; Επιπλέον, θα θωρακιστεί το μοντέλο με μηχανισμούς συμμόρφωσης και συγκεκριμένες νομικές παραμέτρους για να αποκτήσει κανονιστική ισχύ; Θα λάβει την μορφή νομικού προαπαιτούμενου η περίφημη Εκτίμηση Ανθρωπίνων Δικαιωμάτων[4];
Το τελευταίο θέμα είναι άκρως ενδιαφέρον καθώς εγείρει μια σειρά ζητημάτων σε εννοιολογικό/ερμηνευτικό, κανονιστικό και μεθοδολογικό επίπεδο μιας και ουσιαστικά δύναται να αποτελέσει σημείο όσμωσης και σύζευξης των ανθρωπιστικών/κοινωνικών επιστημών με τις θετικές επιστήμες. Τα πρώτα δείγματα επεξεργασίας του συγκεκριμένου εργαλείου εκτίμησης είναι ενθαρρυντικά και δημιουργούν ευνοϊκές προϋποθέσεις για την ενίσχυση της εφαρμοσιμότητάς του και τον εμπλουτισμό του με παραμέτρους που θα ενισχύσουν τον ηθικό πλαίσιο αυτών των συστημάτων.
Τα νομοθετικά κείμενα που βρίσκονται υπό διαπραγμάτευση αυτήν την στιγμή σε επίπεδο ΕΕ και το περιεχόμενο που θα λάβουν τους επόμενους μήνες θα καθορίσουν το τρόπο με τον οποίο θα αποτυπωθούν νομικά οι προθέσεις του Ευρωπαίου νομοθέτη σε σχέση με την προστασία των ανθρωπίνων δικαιωμάτων και τον σεβασμό των κανόνων ηθικής και δεοντολογίας στο πλαίσιο του σχεδιασμού, θέσης σε εφαρμογή και εμπορικής χρήσης συστημάτων που χρησιμοποιούν τεχνητή νοημοσύνη.
Το μεγάλο εμπόδιο που φαίνεται να υπάρχει στο πλαίσιο της περαιτέρω συγκεκριμενοποίησης και εναρμονισμένης εφαρμογής της προτεινόμενης ανθρωποκεντρικής προσέγγισης είναι ότι η ΕΕ δεν διαθέτει ‘σκληρές’ αρμοδιότητες σε ζητήματα που άπτονται ερευνητικής και τεχνολογικής ηθικής παρά μόνο στον βαθμό που οι οποίες ερευνητικές δραστηριότητες χρηματοδοτούνται από την Ευρωπαϊκή Επιτροπή. Η τοπική «εδαφικοτητα» στα ζητήματα αυτά καθιστά τον συντονισμό και εναρμονισμό σε επίπεδο ΕΕ ακόμα πιο επιτακτικό και κρίσιμο υπό το πρίσμα του υπό σχεδιασμού ενωσιακού αφηγήματος της ανθρωποκεντρικής προσέγγισης της επιδραστικής αυτής τεχνολογίας.
Ταυτόχρονα, αξίζει να εξεταστεί το κατά ποσό το προαναφερόμενο ενωσιακό μοντέλο συνιστά το μοναδικό πλαίσιο κανόνων ανθρωποκεντρικού χαρακτήρα για την διακυβέρνηση της τεχνητής νοημοσύνης σε υπερεθνικό επίπεδο; Ποια είναι η προσέγγιση των πρωτοπόρων τεχνολογικά ΗΠΑ, Κίνας και Ιαπωνίας; Σε τι ακριβώς συνίσταται η μοναδικότητά του; Στο ίδιο το αφήγημα; Στις ηθικές αρχές και τα νομικά προαπαιτούμενα που το συνοδεύουν; Στις δυνατότητες εφαρμογής του με πολλαπλούς τρόπους;
Η προσέγγιση των υπόλοιπων τεχνολογικά προηγμένων κρατών στον τομέα αυτό αξίζει προσεκτικής διερεύνησης καθώς και οι προκλήσεις που θέτει η ίδια η πολλαπλότητα των προσεγγίσεων και πρωτοβουλιών σε επίπεδο διεθνών και περιφερειακών διακηρύξεων, αρχών και κωδίκων. Με αλλά λόγια, παρατηρούμε την μεταφορά του γεωπολιτικού ανταγωνισμού από τον τεχνολογικό τομέα (ειδικά στο πλαίσιο του σχεδιασμό και εφαρμογή συγκεκριμένων νέων και αναδυόμενων τεχνολογιών) στον τομέα της ηθικής διακυβέρνησης και τον τρόπο δόμησής της. Μια πρώτη ανάλυση των κυριότερων πρωτοβουλιών παγκοσμίως καταδεικνύει ότι υπάρχουν σοβαρά περιθώρια σύγκλισης τα οποία και θα μπορούσαν να ανοίξουν τον δρόμο για την υιοθέτηση ενός διεθνούς κειμένου που θα μπορούσε να θέσεις τις βάσεις για μια διεθνή συνθήκη. Ο ρόλος του Οργανισμού Ηνωμένων Εθνών και των επιμέρους οργάνων του αναμένεται να αποδειχθεί καθοριστικός για τον συντονισμό και διαμόρφωση ενός ελάχιστου κοινού παρανομαστεί. Ο τελευταίος θα μπορούσε να πάρει την μορφή μιας Συνθήκης – Πλαισίου, ή ενός Παγκόσμιου Διακυβερνητικού Επιστημονικού Σώματος ή τουλάχιστον μιας ενισχυμένης μορφής Παρατηρητήριου.
Η συγκεκριμένη προσέγγιση εγείρει επίσης ερωτήματα για το πώς το συγκεκριμένο μοντέλο αποτελεί θεσμικό αυτοσκοπό ή λειτουργεί ως εργαλείο νομιμοποίησης και κανονικοποίησης συγκεκριμένων τεχνολογικών τάσεων και εφαρμογών και κυρίως εμπέδωσης ενός νέου παραδείγματος υπεύθυνης καινοτομίας. Η συζήτηση που έχει αναπτυχθεί αγγίζει επίσης θέματα τυποποίησης αυτού του μοντέλου καθώς όλοι οι διεθνείς οργανισμοί τυποποίησης έχουν ήδη προβεί στην δημιουργία standards που κωδικοποιούν για συγκεκριμένες εφαρμογές κάποιες από τις ηθικές αξίες και αρχές που έχουν υιοθετηθεί σε διεθνές επίπεδο.
Ταυτόχρονα, η εφαρμογή της ανθρωποκεντρικής προσέγγισης βασίζεται σε μια σειρά συνθηκών για τις οποίες σημειώνονται ακόμη μεγάλες αποκλίσεις εντός και εκτός ΕΕ. Θέματα όπως για παράδειγμα η ψηφιακή σύγκλιση – με την έννοια της ισότητας στην πρόσβαση των πολιτών στη χρήση ψηφιακών τεχνολογιών και την εξάλειψη του «ψηφιακού χάσματος» που οφείλεται σε παράγοντες όπως η γεωγραφική θέση, η ηλικία και το φύλο- και η συμπεριληπτική προσέγγιση στο θέμα των ψηφιακών δεξιοτήτων/υποδομών. Ταυτόχρονα, οι τελευταίες εξελίξεις στις διαπραγματεύσεις για την υιοθέτηση του ευρωπαϊκού Κανονισμού για την τεχνητή νοημοσύνη αντανακλούν κάποιες από τις διαφοροποιήσεις, καθώς κάποια κράτη-μέλη της Ένωσης αντιδρούν στην επιβολή αυστηρών νομικών υποχρεώσεων συμμόρφωσης και διαφάνειας για θεμελιώδη μοντέλα όπως το ChatGPT, θέτοντας εν αμφιβόλω τόσο την επιτυχή κατάληξη της πολιτικής διαπραγμάτευσης όσο και την ιδιά τη νομική στιβαρότητα του τελικού κειμένου.
Για πολλά από τα παραπάνω ερωτήματα, οι διεργασίες που λαμβάνουν χώρα αυτήν τη στιγμή σε ευρωπαϊκό και διεθνές επίπεδο για την θέσπιση νομικών και ηθικών κανόνων αναμένεται να προσδιορίσουν το επίδικο και το μείγμα της πολιτικής στόχευσης αλλά και την ίδια τη μορφή που θα λάβει το συγκεκριμένο μοντέλο. Η κατάληξή τους θα είναι ενδεικτική της δυνατότητας της ΕΕ να δώσει σάρκα και οστά στο όραμα της για μια τεχνολογική καινοτομία που θα έχει στο επίκεντρο της τον άνθρωπο και τις ανάγκες του.
ΠΗΓΗ: www.enainstitute.org