Η Ελλάδα έκανε τα πρώτα της βήματα για την διαμόρφωση μιας συνεκτικής εθνικής στρατηγικής για την Τεχνητή Νοημοσύνη (AI) το 2021 με τη Βίβλο Ψηφιακού Μετασχηματισμού (2020-2025), υπό την αιγίδα του Υπουργείου Ψηφιακής Διακυβέρνησης, για να καταγράψει τις παρεμβάσεις που χρειάζεται να πραγματοποιηθούν “στις τεχνολογικές υποδομές του κράτους, στην εκπαίδευση και κατάρτιση του πληθυσμού για την απόκτηση ψηφιακών δεξιοτήτων καθώς και στον τρόπο που η χώρα μας αξιοποιεί την ψηφιακή τεχνολογία σε όλους τους τομείς της οικονομίας και της δημόσιας διοίκησης”.
Πριν κλείσει το 2024, η ελληνική κυβέρνηση ανακοίνωσε σημαντικά βήματα για το εγχώριο οικοσύστημα τεχνητής νοημοσύνης, καθώς έγινε γνωστό ότι η χώρα θα φιλοξενήσει ένα από τα επτά νέα “AI Factories” που θα δημιουργηθούν στην Ευρωπαϊκή Ένωση, ενώ παρουσίασε και το στρατηγικό της σχέδιο με τίτλο “Blueprint for Greece’s AI Transformation”, στο οποίο καταγράφει τις προτεραιότητες και τις δράσεις για την ενσωμάτωση της ΤΝ στην οικονομία και την κοινωνία. Οι εξελίξεις αυτές καθιστούν πιο επίκαιρο από ποτέ το διάλογο αναφορικά με το μέλλον της ΤΝ στην Ελλάδα.
Παράλληλα, η μελέτη «Generative AI Greece 2030», που εκπονήθηκε από το Εθνικό Κέντρο Κοινωνικών Ερευνών (ΕΚΚΕ) και το Εθνικό Κέντρο Επιστημονικών Ερευνών «Δημόκριτος», ήρθε πριν ένα χρόνο και προσφέρει πληροφορίες για τις τάσεις αναφορικά με την ανάπτυξη της τεχνητής νοημοσύνης, παρέχοντας μια σειρά από προτάσεις πολιτικής. Με την ελληνική κυβέρνηση να έχει τονίσει επανειλημμένα τη δέσμευση, πως η Ελλάδα θα εξελιχθεί σε σημαντικό παίκτη στο αναδυόμενο οικοσύστημα τεχνητής νοημοσύνης, το Eteron με το project “Από την Τεχνητή στη Συλλογική Νοημοσύνη” επιχειρεί να ανιχνεύσει τις τάσεις και τις αντιλήψεις των πολιτών αναφορικά με την χρήση της TN.
Συγκεκριμένα φέρνει στο φως την πολύτιμη κοινωνική διάσταση ενός εν κινήσει τεχνολογικού και οικονομικού μετασχηματισμού. Μια διάσταση χωρίς την οποία, οι τεχνολογικές εξελίξεις δεν αρκούν για να επιτευχθεί συλλογική ευημερία. Παράλληλα, θέτει επί τάπητος κρίσιμες μεταβλητές για την εφαρμογή και την επιτυχία Δημόσιων Πολιτικών που αφορούν την ΤΝ στην Ελλάδα.
Το ερευνητικό πρόγραμμα ξεκίνησε τον Νοέμβριο του 2024
Ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη τέθηκε σε ισχύ την 1η Αυγούστου 2024 ενώ η εφαρμογή του θα προχωρήσει σε στάδια: από τις 2 Φεβρουαρίου 2025 μέχρι τις 2 Φεβρουαρίου 2026, μέρη του Κανονισμού θα τίθενται σε εφαρμογή.1 Ο κανονισμός θεωρείται ένα από τα μεγαλύτερα επιτεύγματα της Ευρωπαϊκής Επιτροπής της von der Leyen και εξυμνείται ως η πρώτη νομοθεσία για την τεχνητή νοημοσύνη (ΤΝ) στον κόσμο. Περιλαμβάνει κανόνες για την τη διάθεση στην ενιαία ευρωπαϊκή αγορά και τη θέση σε λειτουργία ορισμένων συστημάτων ΤΝ. Με την παρουσία της ΤΝ να αυξάνεται συνεχώς σε εθνικό, ευρωπαϊκό και διεθνές επίπεδο, γεννάται το ερώτημα τι επίδραση θα έχει ο κανονισμός και σε τι βαθμό θα συμβάλλει στην αντιμετώπιση των κινδύνων που προβληματίζουν πολίτες και οργανώσεις τοπικά και παγκοσμίως.2
Το μακροσκελές κείμενο του κανονισμού περιλαμβάνει πάνω από 100 άρθρα και 13 παραρτήματα. Το παρόν κείμενο εστιάζει σε κάποιες βασικές διατάξεις, και πιο συγκεκριμένα στο πεδίο εφαρμογής, την κατηγοριοποίηση κινδύνων, τις κατηγορίες απαιτήσεων και υποχρεώσεων και το ευρύτερο σύστημα διακυβέρνησης.
Ο κανονισμός αφορά ως επί το πλείστον τους παρόχους, δηλαδή κατασκευαστές, και σε δεύτερο βαθμό τους φορείς εφαρμογής, δηλαδή επαγγελματικούς χρήστες, συστημάτων ΤΝ, τα οποία ορίζονται ως «μηχανικό σύστημα που έχει σχεδιαστεί για να λειτουργεί με διαφορετικά επίπεδα αυτονομίας και μπορεί να παρουσιάζει προσαρμοστικότητα μετά την εφαρμογή του και το οποίο, για ρητούς ή σιωπηρούς στόχους, συνάγει, από τα στοιχεία εισόδου που λαμβάνει, πώς να παράγει στοιχεία εξόδου, όπως προβλέψεις, περιεχόμενο, συστάσεις ή αποφάσεις που μπορούν να επηρεάσουν υλικά ή εικονικά περιβάλλοντα». Επομένως, ο κανονισμός δεν αφορά την χρήση στο πλαίσιο προσωπικής ή μη επαγγελματικής δραστηριότητας. Εξαιρείται επίσης, μεταξύ άλλων, η διάθεση ή χρήση συστημάτων ΤΝ για λόγους εθνικής ασφάλειας ή στρατιωτικούς σκοπούς καθώς και για λόγους επιστημονικής έρευνας.
Ο κανονισμός διακρίνει διαφορετικά επίπεδα κινδύνου και απαιτήσεων. Με γνώμονα την προστασία της υγείας, ασφάλειας και θεμελιωδών δικαιωμάτων, συστήματα ΤΝ που εντάσσονται στην κατηγορία μη αποδεκτού κινδύνου απαγορεύονται υπό συγκεκριμένες προϋποθέσεις, ενώ τα συστήματα υψηλού κινδύνου πρέπει να συμμορφώνονται με ειδικές απαιτήσεις και υποχρεώσεις. Τα συστήματα και μοντέλα ΤΝ γενικού σκοπού τα οποία έχουν την ικανότητα να εξυπηρετούν διάφορους σκοπούς, όπως το ChatGPT, υπόκεινται σε πιο περιορισμένες απαιτήσεις όπου έμφαση δίνεται στην διαφάνεια και παροχή πληροφοριών για την λειτουργία και χρήση τους καθώς και στην συμμόρφωση με το δίκαιο πνευματικής ιδιοκτησίας.
Πιο συγκεκριμένα, απαγορεύεται η διάθεση στην αγορά ή χρήση των συστημάτων ΤΝ που:
Τέλος, ο κανονισμός περιλαμβάνει μία λεπτομερής διάταξη για την απαγόρευση και πρόβλεψη εξαιρέσεων στην απαγόρευση της χρήσης συστημάτων εξ αποστάσεως βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο», σε δημόσια προσβάσιμους χώρους για τους σκοπούς της επιβολής του νόμου (real-time remote biometric identification, facial recognition). Μεταξύ άλλων, η χρήση τέτοιων συστημάτων επιτρέπεται όταν υπάρχει συγκεκριμένη απειλή κατά της ζωής ή υπαρκτή απειλή τρομοκρατικής επίθεσης, με τον όρο συμμόρφωσης στις αναγκαίες διασφαλίσεις και καθορισμένες προϋποθέσεις.
Το μεγαλύτερο κομμάτι του κανονισμού είναι αφιερωμένο στα συστήματα υψηλού κινδύνου και τις ανάλογες απαιτήσεις και υποχρεώσεις. Η ταξινόμηση τέτοιων συστημάτων γίνεται σε μεγάλο βαθμό βάσει του τομέα στον οποίο σκοπεύεται να χρησιμοποιηθεί το σύστημα. Για παράδειγμα, ενώ, όπως αναφέρεται ανωτέρω, τα συστήματα ΤΝ για την συναγωγή συναισθημάτων στον τομέα εργασίας ή εκπαίδευσης απαγορεύονται, σε άλλους τομείς θεωρούνται ως υψηλού κινδύνου. Αυτό σημαίνει ότι, υπό τον όρο συμμόρφωσης με τις καθορισμένες απαιτήσεις και υποχρεώσεις, συστήματα ΤΝ για την συναγωγή συναισθημάτων μπορούν να χρησιμοποιηθούν για παράδειγμα από την αστυνομία για την επιβολή του νόμου ή στο πλαίσιο διαχείρισης αιτήσεων ασύλου. Παρομοίως, τα συστήματα εξ αποστάσεως βιομετρικής ταυτοποίησης που δεν χρησιμοποιούνται σε πραγματικό χρόνο επιτρέπονται ως συστήματα υψηλού κινδύνου. Μεταξύ των συστημάτων υψηλού κινδύνου συμπεριλαμβάνονται επίσης συστήματα για την αξιολόγηση μαθησιακών αποτελεσμάτων ή τον εντοπισμό απαγορευμένης συμπεριφοράς σπουδαστών κατά την διάρκεια εξετάσεων, για την πρόσληψη σε θέση εργασίας ή την κατάργηση εργασιακών σχέσεων, για την παροχή υπηρεσιών δημόσιας αρωγής ή την αξιολόγηση πιστοληπτικής ικανότητας, για την συνδρομή προς δικαστική αρχή κατά την έρευνα και ερμηνεία πραγματικών περιστατικών και εφαρμογή του νόμου. Τέλος, στους τομείς επιβολής νόμου και μετανάστευσης, ασύλου και συνοριακών ελέγχων πληθώρα συστημάτων για αξιολόγηση ανθρώπινης συμπεριφοράς όπως οι ανιχνευτές ψεύδους και τα συστήματα εκτίμησης κινδύνου καθορίζονται ως υψηλού κινδύνου. Το ίδιο και τα συστήματα ΤΝ σε υποδομές ζωτικής σημασίας όπως οι υποδομές παροχής νερού και ενέργειας, και συστήματα που είναι ή χρησιμοποιούνται ως κατασκευαστικό στοιχείο ασφάλειας ενός προϊόντος, για παράδειγμα παιχνίδια, καλώδια, αυτοκίνητα και ιατρικές συσκευές.
Πριν τεθούν στην αγορά, οι πάροχοι που θεωρούν ότι τα συστήματα τους ανήκουν σε μία από τις κατηγορίες συστημάτων ΤΝ υψηλού κινδύνου, οφείλουν να συμμορφωθούν με απαιτήσεις όπως συστήματα διαχείρισης κινδύνου και ποιότητας, διακυβέρνηση δεδομένων, πληροφόρηση κι οδηγίες χρήσης για τους φορείς, μέτρα ανθρώπινης εποπτείας και κυβερνοασφάλειας. Οφείλουν να κρατούν αρχεία για την λειτουργία και να συνεργάζονται με τις αρμόδιες αρχές. Οι φορείς εφαρμογής τέτοιων συστημάτων, για παράδειγμα ένα εκπαιδευτικό ινστιτούτο, αστυνομικές ή άλλες δημόσιες αρχές, ή μία εταιρία, πρέπει να λαμβάνουν κατάλληλα τεχνικά και οργανωτικά μέτρα για να διασφαλίσουν ότι χρησιμοποιούν τα συστήματα αυτά σύμφωνα με τις οδηγίες χρήσης. Επίσης, διάφοροι φορείς συστημάτων υψηλού κινδύνου όπως καθορίζει ο κανονισμός πρέπει να διενεργήσουν εκτίμηση των επιπτώσεων του συστήματος για τα θεμελιώδη δικαιώματα – ΕΑΘΔ (fundamental rights impact assessment – FRIA).
Όσον αφορά την διακυβέρνηση και εποπτεία εφαρμογής του κανονισμού, σε ευρωπαϊκό επίπεδο συστήνεται η Υπηρεσία ΤΝ, η οποία επιβλέπει την εφαρμογή του κανονισμού και υποστηρίζει τις εθνικές αρχές, καθώς και το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης, το οποίο συμβουλεύει την Επιτροπή και τα κράτη μέλη. Σε εθνικό επίπεδο, κάθε κράτος μέλος οφείλει να συστήσει ή ορίσει ως εθνικές αρμόδιες αρχές τουλάχιστον μία κοινοποιούσα αρχή και τουλάχιστον μία αρχή εποπτείας της αγοράς, ενώ περιορισμένες εξουσίες ανατίθενται και στις υπάρχουσες εθνικές αρχές προστασίας θεμελιωδών δικαιωμάτων.
Κάθε συζήτηση και ανάλυση για το νέο αυτό κανονισμό καλό είναι να λαμβάνει υπόψη το πλαίσιο στο οποίο δημιουργήθηκε. Σε νομικό επίπεδο, ο κανονισμός βασίζεται κυρίως στις αρμοδιότητες της Ευρωπαϊκής Ένωσης (ΕΕ) σχετικά με την βέλτιστη λειτουργία της εσωτερικής αγοράς και σε δεύτερο βαθμό στην αρμοδιότητα της ΕΕ να προστατεύσει το δικαίωμα στην προστασία των προσωπικών δεδομένων. Με άλλα λόγια, προτεραιότητα είναι η εναρμονισμένη λειτουργία της ενωσιακής αγοράς, καθώς η ΕΕ έχει περιορισμένες αρμοδιότητες να υιοθετήσεις νόμους για την προστασία των θεμελιωδών δικαιωμάτων καθαυτών. Σε πολιτικό επίπεδο, από την μία πλευρά, η επιβολή κανόνων για την ΤΝ είναι μέρος της ευρύτερης ψηφιακής ατζέντας της ΕΕ η οποία βασίζεται στην προώθηση των ευρωπαϊκών προτύπων και αξιών και την εξασφάλιση της ψηφιακής κυριαρχίας της ΕΕ.3 Από την άλλη, διάφορα κράτη μέλη καθώς μεγάλες εταιρίες τεχνολογίας οι οποίες δραστηριοποιούνται στην αγορά της ΕΕ άσκησαν εντατική επιρροή τόσο εμφανώς όσο και παρασκηνιακά για να προωθήσουν τα δικά τους ενδιαφέροντα κατά τη νομοπαραγωγική διαδικασία.4Το αποτέλεσμα είναι ένας περίπλοκος συμβιβασμός με πολυάριθμες διατάξεις και εξίσου εκτενείς εξαιρέσεις.
Ως εκ τούτου, έχουν τεθεί πολλά ερωτήματα, προβληματισμοί και κριτικές από πληθώρα επαγγελματιών και οργανώσεων όπως ακαδημαϊκοί και ΜΚΟ.5Πρώτα από όλα, η λίστα απαγορευμένων πρακτικών στο όνομα των θεμελιωδών δικαιωμάτων περιλαμβάνει πολλές ασάφειες που αφήνουν ευρύ περιθώριο ερμηνείας με το ρίσκο κάποιες διατάξεις να γίνουν κενός λόγος.6Για παράδειγμα, η προληπτική αστυνόμευση απαγορεύεται μόνο όταν δεν γίνεται στο πλαίσιο υποστήριξης ανθρώπινης εκτίμησης. Ωστόσο, παρόμοια απαγόρευση υπάρχει ήδη από την Οδηγία 2016/680 για την επεξεργασία προσωπικών δεδομένων από αστυνομικές αρχές. Στην πράξη, συστήματα προληπτικής αστυνόμευσης χρησιμοποιούνται προς καθοδήγηση των αρχών και συχνά εστιάζουν σε συγκεκριμένες περιοχές που κρίνονται ως επικίνδυνες παρά σε συγκεκριμένα άτομα. Όμως, είναι πολλές οι κατηγορίες ότι τέτοια συστήματα έχουν υψηλό ποσοστό σφαλμάτων ενώ παραβιάζουν θεμελιώδη δικαιώματα όπως η δίκαια δίκη και η προσωπική ζωή. Τα δικαιώματα αυτά που θεωρητικά ο κανονισμός προστατεύει μέσα από μία απαγόρευση που θα έχει ελάχιστο ή μηδαμινό αντίκτυπο.
Ακόμα σημαντικότερο, η ταξινόμηση συστημάτων ΤΝ υψηλού κινδύνου οδηγεί στην νομιμοποίηση συστημάτων τα οποία είναι επιστημονικά αμφιλεγόμενα ή ακόμα που θεωρούνται ψευδοεπιστήμη όπως τα συστήματα συναγωγής συναισθημάτων.7 Μάλιστα, όχι μόνο τέτοια συστήματα μπορούν τώρα να χρησιμοποιηθούν νόμιμα υπό τις τεχνικές προϋποθέσεις που θέτει ο κανονισμός, αλλά μπορούν να χρησιμοποιηθούν και σε τομείς όπου η περαιτέρω περιθωριοποίηση και οι κίνδυνοι για ευάλωτες κοινωνικές ομάδες είναι ακόμα υψηλότεροι, όπως ο τομέας ασύλου ή η παροχή υπηρεσιών δημοσίας αρωγής όπως τα κοινωνικά επιδόματα. Εν προκειμένω, το γεγονός ότι οι πάροχοι αποφασίζουν μόνοι τους αν τα συστήματά τους εμπίπτουν σε μία από τις κατηγορίες υψηλού κινδύνου αυξάνει το ρίσκο ότι πολλά συστήματα θα ξεφύγουν κάθε ελέγχου και συμμόρφωσης με τον κανονισμό.
Ιδιαίτερη κριτική έχει γίνει και για τις ΕΑΘΔ: μεταξύ άλλων, η υποχρέωση διενέργειας ΕΑΘΔ δεν αφορά τις ιδιωτικές υπηρεσίες, ο τρόπος διεξαγωγής είναι ασαφής, δεν προβλέπεται η απόσυρση συστημάτων σε περίπτωση υπέρμετρων κινδύνων ενώ οι φορείς σε τομείς επιβολής νόμου και διαχείρισης μετανάστευσης, ασύλου και συνοριακών ελέγχων δεν υπόκεινται στην υποχρέωση ενημέρωσης για τα αποτελέσματα της ΕΑΘΔ προς την αρχή εποπτείας.8Οι εξαιρέσεις στον τομέα επιβολής νόμου είναι ιδιαιτέρως ευρείες, ενώ η εξαίρεση όλων των συστημάτων ΤΝ για λόγους εθνικής ασφαλείας αντίκειται σε προηγούμενες αποφάσεις του Δικαστηρίου της Ευρωπαϊκής Ένωσης και εγκυμονεί κινδύνους κατάχρησης.9 Αυτοί είναι μόνο κάποιοι από τους προβληματισμούς που έχουν δημιουργηθεί σχετικά με την εφαρμογή του κανονισμού.
Σε γενικότερες γραμμές, ο κανονισμός θα επιβάλλει ένα επίπεδο τεχνικών προδιαγραφών για την ακρίβεια και ασφάλεια των συστημάτων ΤΝ και θα ενισχύσει την διαφάνεια χρήσης τους. Ωστόσο, ο κανονισμός δεν πρόκειται, και δεν μπορεί, να καθησυχάσεις ευρύτερες ανησυχίες, που αφορούν το κοινωνικό και περιβαλλοντικό κόστος της χρήσης ΤΝ. Πολλά από αυτά τα συστήματα δεν έχουν καταφέρει να αποδείξουν την αποτελεσματικότητα τους ενώ τουναντίον έχουν αποδειχθεί να αναπαράγουν διακρίσεις και να διαιωνίζουν στερεότυπα και προκαταλήψεις έναντι κοινωνικών ομάδων και είναι επικίνδυνα για τις ατομικές ελευθερίες των πολιτών. Παράλληλα, ολοένα περισσότερες έρευνες κρούουν τον κώδωνα για τον περιβαλλοντικό αντίκτυπο της ΤΝ, ειδικά της παραγωγικής ΤΝ (generative AI). Συνεπώς, η συζήτηση και η ανάγκη περαιτέρω ρυθμίσεων για την χρήση ή μη συστημάτων ΤΝ δεν σταματάει εδώ. Πολλά θα κριθούν και από την ερμηνεία των αμφιλεγόμενων ή ασαφών διατάξεων του κανονισμού ενώ άλλωστε, πέρα από τον ευρωπαϊκό κανονισμό, κάθε κράτος μέλος οφείλει να προστατεύσει τους πολίτες βάση των εθνικών συνταγματικών διατάξεων του.