PROJECT: Από την Τεχνητή στη Συλλογική Νοημοσύνη

PROJECT: Από την Τεχνητή στη Συλλογική Νοημοσύνη

Κλείσιμο
Project: Από την Τεχνητή στη Συλλογική Νοημοσύνη
  • Σχετικά με το project

    Η Ελλάδα έκανε τα πρώτα της βήματα για την διαμόρφωση μιας συνεκτικής εθνικής στρατηγικής για την Τεχνητή Νοημοσύνη (AI) το 2021 με τη Βίβλο Ψηφιακού Μετασχηματισμού (2020-2025), υπό την αιγίδα του Υπουργείου Ψηφιακής Διακυβέρνησης, για να καταγράψει τις παρεμβάσεις που χρειάζεται να πραγματοποιηθούν “στις τεχνολογικές υποδομές του κράτους, στην εκπαίδευση και κατάρτιση του πληθυσμού για την απόκτηση ψηφιακών δεξιοτήτων καθώς και στον τρόπο που η χώρα μας αξιοποιεί την ψηφιακή τεχνολογία σε όλους τους τομείς της οικονομίας και της δημόσιας διοίκησης”

    Πριν κλείσει το 2024, η ελληνική κυβέρνηση ανακοίνωσε σημαντικά βήματα για το εγχώριο οικοσύστημα τεχνητής νοημοσύνης, καθώς έγινε γνωστό ότι η χώρα θα φιλοξενήσει ένα από τα επτά νέα “AI Factories” που θα δημιουργηθούν στην Ευρωπαϊκή Ένωση, ενώ  παρουσίασε και το στρατηγικό της σχέδιο με τίτλο Blueprint for Greece’s AI Transformation”, στο οποίο καταγράφει τις προτεραιότητες και τις δράσεις για την ενσωμάτωση της ΤΝ στην οικονομία και την κοινωνία. Οι εξελίξεις αυτές καθιστούν πιο επίκαιρο από ποτέ το διάλογο αναφορικά με το μέλλον της ΤΝ στην Ελλάδα.

    Παράλληλα, η μελέτη «Generative AI Greece 2030», που εκπονήθηκε από το Εθνικό Κέντρο Κοινωνικών Ερευνών (ΕΚΚΕ) και το Εθνικό Κέντρο Επιστημονικών Ερευνών «Δημόκριτος», ήρθε πριν ένα χρόνο και προσφέρει πληροφορίες για τις τάσεις αναφορικά με την ανάπτυξη της τεχνητής νοημοσύνης, παρέχοντας μια σειρά από προτάσεις πολιτικής. Με την ελληνική κυβέρνηση να έχει τονίσει επανειλημμένα τη δέσμευση, πως η Ελλάδα θα εξελιχθεί σε σημαντικό παίκτη στο αναδυόμενο οικοσύστημα τεχνητής νοημοσύνης, το Eteron με το project από την “Από την Τεχνητή στη Συλλογική Νοημοσύνη” επιχειρεί να ανιχνεύσει τις τάσεις και τις αντιλήψεις των πολιτών αναφορικά με την χρήση της τεχνητής νοημοσύνης.

    Συγκεκριμένα φέρνει στο φως την πολύτιμη κοινωνική διάσταση ενός εν κινήσει τεχνολογικού και οικονομικού μετασχηματισμού. Μια διάσταση χωρίς την οποία, οι τεχνολογικές εξελίξεις δεν αρκούν για να επιτευχθεί συλλογική ευημερία. Παράλληλα, θέτει επί τάπητος κρίσιμες μεταβλητές για την εφαρμογή και την επιτυχία Δημόσιων Πολιτικών που αφορούν την ΤΝ στην Ελλάδα.

  • Ταυτότητα

    Το ερευνητικό πρόγραμμα ξεκίνησε τον Νοέμβριο του 2024

  • Συντελεστές/τριες

Έρευνα Eteron | Από την Τεχνητή στη Συλλογική Νοημοσύνη

Από την τεχνητή στη συλλογική νοημοσύνη: Αποτελέσματα της Έρευνας για την Τεχνητή Νοημοσύνη στην Ελλάδα

A bug is never just a mistake. It represents something bigger. An error of thinking that makes you who you are (Ελεύθερη μετάφραση: «Ένα προγραμματιστικό σφάλμα δεν είναι ποτέ απλώς ένα λάθος. Αντιπροσωπεύει κάτι μεγαλύτερο. Αποτελεί ένα λάθος της σκέψης σου, που σε κάνει αυτό που είσαι».).

Elliot, Mr. Robot (2015-19)

Η παραπάνω φράση της αγαπημένης σειράς “Mr. Robot”, αποτυπώνει με τον πιο εύγλωττο τρόπο, την ανθρώπινη συμμετοχή πίσω από κάθε τεχνολογική εξέλιξη. Η ευρεία διάδοση των Μεγάλων Γλωσσικών Μοντέλων (LLMs) όπως το ChatGPT, έχει πυροδοτήσει το διάλογο αναφορικά με την τεχνητή νοημοσύνη, αναδεικνύοντας συχνά δύο ακραίες και μεταξύ τους αντίρροπες προσεγγίσεις: εκείνη του τεχνο-οπτιμισμού ή εκείνη του τεχνο-πεσιμισμού (Kelly, 2023), που ενίοτε καταλήγει και στην τεχνοφοβία. Τόσο στην πρώτη, όσο και στη δεύτερη περίπτωση, αποτελεί -συνήθως- κοινή συνισταμένη η παράβλεψη της ανθρώπινης διάστασης κάθε τεχνολογίας. Με απλά λόγια, κάθε τι ορθό, αλλά και κάθε τι λανθασμένο, το οποίο προκύπτει μέσα από την τεχνολογία, είναι προϊόν ανθρώπινης σκέψης ή δράσης -και αδράνειας. Το ίδιο ισχύει φυσικά -και σε μεγαλύτερο βαθμό- όσον αφορά την επιλογή η τεχνολογία να εξυπηρετεί τα συμφέροντα των πολλών ή τα συμφέροντα των λίγων. 

Η παραδοχή ότι η τεχνολογική πρόοδος δεν συνεπάγεται αυτονόητα κοινωνική πρόοδο ή συλλογική ευημερία, είναι το πρώτο βήμα για να διαμορφώσουμε τη συλλογική νοημοσύνη, η οποία θα χαρακτηρίζεται από αυτό που ο Ν. Ερηνάκης (2024) εύστοχα περιγράφει ως «ήπια τεχνοφιλία». Προς αυτή την κατεύθυνση, παρουσιάζουν ιδιαίτερο ενδιαφέρον τα ευρήματα της έρευνας, που πραγματοποιήσαμε την περίοδο εννέα (9) με έντεκα (11) Νοεμβρίου 2024 σε συνεργασία με την AboutPeople σε πανελλαδικό δείγμα 1102 ατόμων, με αυτοσυμπληρούμενες ηλεκτρονικές συνεντεύξεις μέσω διαδικτύου με δομημένο ερωτηματολόγιο (CAWI). 

Σύμφωνα με την έρευνά μας προκύπτουν τα εξής συμπεράσματα:

  • Αρχικά, παρατηρείται ένα υψηλό επίπεδο διάδοσης ή/και επίγνωσης των εφαρμογών τεχνητής νοημοσύνης (όπως για παράδειγμα οι εφαρμογές ChatGPT, Siri, Alexa και Google Assistant) με το 94.1% να έχει τουλάχιστον ακούσει για αυτές και μόλις το 5.9% να μη γνωρίζει τίποτα. Πρόκειται για ένα ποσοστό ελαφρώς χαμηλότερο σε σχέση με τα αντίστοιχα υψηλά ποσοστά επίγνωσης που κατέγραψε το Pew Research Center ένα χρόνο πριν στις ΗΠΑ (Kennedy, Tyson, & Saks, 2023).

 

  • Όσον αφορά τη χρήση Generative AI (παραγωγική τεχνητή νοημοσύνη) το ποσοστό περιορίζεται στο 38.3%. Ωστόσο, το εύρημα αυτό βρίσκεται αρκετά κοντά στο αντίστοιχο των πολιτών του Ηνωμένου Βασιλείου, καθώς σύμφωνα με το Digital Consumer Trends της Deloitte (2024) το 36% του πληθυσμού κάνει χρήση Generative AI. Το εύρημα αυτό καθίσταται αρκετά σημαντικό σε συνάρτηση, με το γεγονός ότι σύμφωνα με το Global AI Vibrancy Tool του Πανεπιστημίου Στάνφορντ (Maslej et al., 2024) η Μεγάλη Βρετανία κατατάσσεται τρίτη -πίσω από τις ΗΠΑ και την Κίνα- στην ανάπτυξη της τεχνητής νοημοσύνης. Συνεπώς, είναι αρκετά εντυπωσιακό, ότι η χρήση Generative AI στην Ελλάδα αγγίζει και οριακά ξεπερνάει τα επίπεδα της Μ. Βρετανίας. Σε αυτό το σημείο, πρέπει να σημειωθεί ότι η έρευνά μας είναι μεταγενέστερη της αντίστοιχης της Deloitte και συνεπώς είναι πολύ πιθανό να έχει μεταβληθεί ανοδικά το αντίστοιχο ποσοστό για το Ηνωμένο Βασίλειο. 

 

  • Στον αντίποδα το 61% των ερωτηθέντων δεν έχει χρησιμοποιήσει εφαρμογές Generative AI, ενώ από το ποσοστό αυτό το 14.2% θα ήθελε να το κάνει στο μέλλον. 

 

  • Όσον αφορά τον τρόπο με τον οποίο αξιοποιούν ή θα αξιοποιούσαν στο μέλλον οι Έλληνες την ΤΝ, κυριαρχεί η αναζήτηση πληροφοριών (60.3%), ενώ ακολουθούν κατά σειρά: η μετάφραση κειμένων (35.9%), η ψυχαγωγία ή συζητήσεις (25.1%), η δημιουργία περιεχομένου (24.2%) και η βοήθεια στη λήψη αποφάσεων (17.6%). Από την άλλη πλευρά, το 15.4% δεν χρησιμοποιεί, ούτε σκοπεύει να χρησιμοποιήσει εφαρμογές τεχνητής νοημοσύνης για κανένα σκοπό.

 

  • Παράλληλα, οι Έλληνες δείχνουν τη συγκεκριμένη χρονική περίοδο «μοιρασμένοι» μεταξύ αισιοδοξίας και απαισιοδοξίας. Συγκεκριμένα, οι ερωτώμενοι εμφανίζονται ελαφρώς πιο απαισιόδοξοι (37.1%) απ’ ότι αισιόδοξοι (34.9%), ενώ το 23.7% παραμένει ουδέτερο, θεωρώντας «ότι ο αντίκτυπος της Τεχνητής Νοημοσύνης θα είναι ισορροπημένος ανάμεσα στα θετικά και τα αρνητικά αποτελέσματα». Πρόκειται, για μια αναμενόμενη εξέλιξη καθώς οι Ευρωπαίοι χαρακτηρίζονται για τον πεσιμισμό τους αναφορικά με τις προοπτικές της ΤΝ, όπως καταγράφει ο Ivan (2024) έπειτα από την επεξεργασία των στοιχείων του Ευρωβαρόμετρου 95.2 (2021). Αντίστοιχα δεδομένα καταγράφονται και σε αρκετές έρευνες, που αφορούν τις ΗΠΑ (Tyson & Kikuchi, 2023), με αποτέλεσμα να γίνεται συχνά σύγκριση για την απόκλιση Δύσης και Παγκόσμιου Νότου, με τις χώρες της δεύτερης κατηγορίας (Arora, 2024) να εμφανίζουν συνήθως μεγαλύτερα ποσοστά αισιοδοξίας σε αντίθεση με τις πρώτες. Ενδεικτικά στην Κίνα το 78% του πληθυσμού θεωρεί ότι τα οφέλη της Τεχνητής Νοημοσύνης υπερτερούν του όποιου κινδύνου (Zhang, 2024, p. 283).

 

  • Πέρα από την ήπια απαισιοδοξία, που καταγράφεται και στην έρευνα του Eteron, οι απαντήσεις στην ερώτηση αναφορικά με τις κινήσεις που θα καθιστούσαν την ΤΝ πιο ασφαλή εστιάζουν στη διαφάνεια, την προστασία των προσωπικών δεδομένων και τις νομοθετικές πρωτοβουλίες. Συγκεκριμένα στην ερώτηση «Τι πιστεύετε ότι θα κάνει τη χρήση της Τεχνητής Νοημοσύνης πιο ασφαλή;» οι ερωτώμενοι -έχοντας τη δυνατότητα επιλογής μέχρι και τρεις επιλογές- απάντησαν: διαφάνεια και εξηγήσεις για το πώς λειτουργούν οι εφαρμογές Τεχνητής Νοημοσύνης (41.7%), διασφάλιση προστασίας των προσωπικών δεδομένων (40.9%), αυστηρή νομοθεσία που περιορίζει τη χρήση της Τεχνητής Νοημοσύνης (39.8%), ανεξάρτητος φορέας που θα επιβλέπει την ασφάλεια της Τεχνητής Νοημοσύνης (33.7%), δυνατότητα προσφυγής σε άνθρωπο για την επανεξέταση των αποφάσεων Τεχνητής Νοημοσύνης (31.3%). Το 13.5% εκτιμά πως τίποτα δεν εξασφαλίζει ένα ασφαλές περιβάλλον. Σε μια περίοδο, κατά την οποία το επιχείρημα ότι οι νομοθετικές παρεμβάσεις για την ΤΝ ενδέχεται να εμποδίζουν την ανάπτυξή της (Yun, 2024) αποκτά όλο και περισσότερους υποστηρικτές σε επιχειρηματικούς και ακαδημαϊκούς κύκλους, οι παραπάνω απαντήσεις αποτυπώνουν εύγλωττα το αίτημα για διαφάνεια και την διαμόρφωση ρυθμιστικού πλαισίου που λειτουργούν προληπτικά για τους κινδύνους της ΤΝ. Πρόκειται για μια τάση, που εντοπίζεται σε αρκετές δυτικές χώρες, όπως το ΗΒ (Ipsos, 2024) και οι ΗΠΑ (Robertson, 2024). Τέλος, σύμφωνα με το IE University Center for the Governance of Change (2023) το 68% των Ευρωπαίων θα επιθυμούσαν νομοθετικές παρεμβάσεις για την προστασία της εργασίας τους. Επομένως, γίνεται φανερή η προσδοκία για ρύθμιση της ΤΝ από τις κυβερνήσεις σε αρκετά επίπεδα.

 

  • Όσον αφορά το ερώτημα «ποιος τελικά είναι υπεύθυνος για να εγγυηθεί την ασφαλή χρήση της ΤΝ», παρατηρείται μια απόκλιση από το παραπάνω εύρημα και τον ισχυρό ρόλο του κράτους που συνεπάγονται οι απαντήσεις που δόθηκαν. Συγκεκριμένα, οι εταιρείες που αναπτύσσουν τεχνολογίες Τεχνητής Νοημοσύνης θεωρούνται οι κύριος υπεύθυνος για την τήρηση της ασφάλειας με ποσοστό 19.3%. Ακολουθούν το κράτος (17.5%), οι Ευρωπαϊκοί Θεσμοί όπως το Ευρωπαϊκό Κοινοβούλιο και η Επιτροπή (16.6%), οι ανεξάρτητες εθνικές ρυθμιστικές αρχές (14.2%) και οι ανεξάρτητες διεθνείς ρυθμιστικές αρχές, όπως ο ΟΟΣΑ (14.0%). Οι διαφορές ωστόσο μεταξύ τους είναι μικρές και αποτυπώνουν την ευρύτερη διάσταση απόψεων, η οποία εκκινεί από την ανάγκη για αυτο-ρύθμιση της αγοράς (Mäntymäki et al, 2022) και φτάνει μέχρι την ισχυρή κρατική παρέμβαση (Anderljungk, et al, 2023) περιλαμβάνοντας ενδιάμεσα συνεργατικές προσεγγίσεις μεταξύ εταιριών-κράτους (Wilczek, et al, 2024) ή ακόμα και ανάθεση της διαδικασίας νομοθέτησης σε ιδιώτες (Hadfield & Clark, 2023). Όπως διαπιστώνουμε, προς το παρόν η ελληνική κοινωνία βρίσκεται σε διαδικασία αναζήτησης και διαμόρφωσης της αντίληψής της αναφορικά με το ποια αρχή θα έπρεπε να έχει τον κρισιμότερο ρόλο σε αυτή τη διαδικασία. 

 

  • Η παραπάνω τάση αποτυπώνεται και στην ουδέτερη στάση των ερωτώμενων αναφορικά με τον ρυθμό ενσωμάτωσης της Τεχνητής Νοημοσύνης. Συγκεκριμένα στο ερώτημα εάν το κράτος οφείλει να να επιταχύνει ή να επιβραδύνει τον ρυθμό ενσωμάτωσης των νέων τεχνολογιών Τεχνητής Νοημοσύνης στους χώρους εργασίας κυριαρχεί η αντίληψη ότι δεν χρειάζεται ούτε επιτάχυνση, ούτε επιβράδυνση (39.4%) και ακολουθούν η ανάγκη για επιτάχυνση με 30.2% και η ανάγκη για επιβράδυνση με 18.4%. Υπάρχει λοιπόν μια στάση ουδέτερη και σχετικά φιλικότερη προς την επιτάχυνση της ενσωμάτωσης της ΤΝ. Πρόκειται για μια εξέλιξη, η οποία αξίζει να αναγνωσθεί σε συνάρτηση με τα ευρήματα των Gallego, et al (2022) από εργαζόμενους στην Ισπανία, όπου κυριάρχισε μια απολύτως θετική στάση, με το 66% να επιθυμεί επιτάχυνση της ενσωμάτωσης. 

 

  • Εξετάζοντας τους πιο σημαντικούς κινδύνους από την ενσωμάτωση της ΤΝ η υπερβολική εξάρτηση από την τεχνολογία (63.8%), η έλλειψη λογοδοσίας και διαφάνειας στις αποφάσεις που λαμβάνονται από συστήματα Τεχνητής Νοημοσύνης (58.7%), η απώλεια θέσεων εργασίας (58.0%) και η παραβίαση της ιδιωτικότητας (53.8%) συγκεντρώνουν παρόμοια ποσοστά. Συνεπώς, αποτυπώνεται και στην έρευνα αυτή η ανησυχία για την απώλεια θέσεων εργασίας και για την παραβίαση της ιδιωτικότητας (Agbaji, et al, 2023), ενώ απ’ ότι φαίνεται το ζήτημα της διαφάνειας και της λογοδοσίας κυριαρχεί για την ελληνική κοινωνία.

 

  • Τέλος, εξετάσαμε την χρησιμότητα για μια σειρά από εφαρμογές της Τεχνητής Νοημοσύνης, ενσωματώνοντας ορισμένες μεταβλητές από την έρευνα των ινστιτούτων Alan Turing και Ada Lovelace (Modhvadia et al., 2023) που διεξήχθη στο Ηνωμένο Βασίλειο. Συγκεκριμένα, το 60% των συμμετεχόντων πιστεύει ότι η αναγνώριση προσώπου για το ξεκλείδωμα συσκευών είναι χρήσιμη, ενώ το 30,1% διαφωνεί. Ακόμη μεγαλύτερη αποδοχή καταγράφεται για την αναγνώριση προσώπου στα σύνορα κατά τον έλεγχο διαβατηρίων, με το 72,1% να τη θεωρεί χρήσιμη και το 19,3% όχι. Όσον αφορά τα μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, το 59,3% των ερωτηθέντων τα βρίσκει χρήσιμα, το 18,3% όχι, ενώ το 22,4% δεν εκφέρει γνώμη. Οι έξυπνες συσκευές και οι βοηθοί φωνής, όπως η Alexa και το Google Assistant, θεωρούνται χρήσιμες από το 65,2% των συμμετεχόντων, με το 21,7% να έχει αντίθετη άποψη και το 13,1% να μην τοποθετείται. Αντίθετα, οι στοχευμένες διαφημίσεις στα μέσα κοινωνικής δικτύωσης, όπως το Facebook, το Instagram και το TikTok, αντιμετωπίζονται με περισσότερη επιφύλαξη: το 37,2% τις θεωρεί χρήσιμες, το 46% όχι, ενώ το 16,8% απαντά πως δεν γνωρίζει. Έτσι, πέρα από τα μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, που δεν περιλαμβάνεται ως μεταβλητή στην προαναφερθείσα έρευνα, σε όλες τις υπόλοιπες μεταβλητές παρατηρείται τάση επιδοκιμασίας ή αποδοκιμασίας αντίστοιχη με όσα καταγράφηκαν από τα Ινστιτούτα Alan Turing και Ada Lovelace. 

Από τα παραπάνω, καθίσταται έκδηλη η ελαφρώς πεσιμιστική τάση των Ελλήνων αναφορικά με τις αλλαγές που πρόκειται να φέρει η Τεχνητή Νοημοσύνη, ακολουθώντας την ευρύτερη τάση που καταγράφεται στην Ευρώπη και τη Δύση (Arora, 2024). Την ίδια ώρα οι μεγαλύτερες ανησυχίες εστιάζουν κυρίως στην έλλειψη διαφάνειας, λογοδοσίας και την υπερβολική εξάρτηση από την τεχνολογία, ενώ σε υψηλά επίπεδα βρίσκεται ο φόβος για την απώλεια θέσεων εργασίας και η απειλή για τα προσωπικά δεδομένα. Στον αντίποδα, θα λέγαμε ότι η θετική προδιάθεση όσον αφορά την επιτάχυνση της ενσωμάτωσης της ΤΝ, τα υψηλά επίπεδα αντίληψης της χρησιμότητας αρκετών καθημερινών εφαρμογών και η διάχυση της χρήσης της Generative AI (παραγωγική τεχνητή νοημοσύνη) σε αντίστοιχα επίπεδα με χώρες πολύ πιο ανεπτυγμένες σε αυτό το σκέλος, φιλοτεχνούν μια εικόνα ήπιας τεχνοφιλίας ή ενός πρώιμου τεχνο-πραγματισμού -σε αυτό πιθανότατα συμβάλει το γεγονός ότι η ΤΝ δεν αναδεικνύεται στη δημόσια σφαίρα επαρκώς και συνεπώς δεν έχουν διαμορφωθεί, έστω και πρώιμες, αποκρυσταλλωμένες απόψεις. Σε κάθε περίπτωση, γίνεται αντιληπτό ότι η συζήτηση για την ΤΝ έχει διαδοθεί στην ελληνική κοινωνία (94.1% έχει ακούσει γι’ αυτήν), παρότι δεν κυριαρχεί ως αντικείμενο διαλόγου. 

Δείτε ολόκληρη την έρευνα σε pdf

Βιβλιογραφία:

Agbaji, D., Lund, B., & Mannuru, N. R. (2023). Perceptions of the fourth industrial revolution and artificial intelligence impact on society. arXiv. https://arxiv.org/abs/2308.02030 

Anderljung, M., Barnhart, J., Korinek, A., Leung, J., O’Keefe, C., & Whittlestone, J., et al. (2023). Frontier AI regulation: Managing emerging risks to public safety. arXiv. https://arxiv.org/pdf/2307.03718

Arora, P. (2024). The privilege of pessimism: The politics of despair towards the digital and the moral imperative to hope. Dialogues on Digital Society, 29768640241252103.

Deloitte. (2024, May 31). Over 18 million people in the UK have now used Generative AI. Deloitte UK. https://www.deloitte.com/uk/en/about/press-room/over-eighteen-million-people-in-the-uk-have-now-used-generative-ai.html

Erinakis, N. (2024, October 10). Artificial intelligence can only frame, use, and reconstruct. ENA Institute for Alternative Policies. https://enainstitute.org/publication/i-techniti-noimosyni-borei-mono-na-plaisiosei-na-chrisimopoiisei-na-anasynthesei/

European Commission, Brussels (2022). Eurobarometer 95.2 (2021). GESIS, Cologne. ZA7782 Data file Version 1.0.0, https://doi.org/10.4232/1.13884

Gallego, A., Kuo, A., Manzano, D., & Fernández-Albertos, J. (2022). Technological risk and policy preferences. Comparative Political Studies, 55(1), 60-92.

Hadfield, G. K., & Clark, J. (2023). Regulatory markets: The future of ai governance. arXiv preprint arXiv:2304.04914.

IE University Center for the Governance of Change. (2023, October 9). Survey reveals that 68% of Europeans want government restrictions on AI. https://www.ie.edu/cgc/news-and-events/news/european-tech-insights-2023/ 

Ipsos. (2024, September). Public trust in AI: Implications for policy and regulation. https://www.ipsos.com/sites/default/files/ct/news/documents/2024-09/Ipsos%20Public%20Trust%20in%20AI.pdf 

Ivan, B. (2024). European public attitudes and perceptions on digitalization and artificial intelligence. Journal of Comparative Research in Anthropology & Sociology, 15(1).

Kelly, L. (2023). Re-politicising the future of work: Automation anxieties, universal basic income, and the end of techno-optimism. Journal of Sociology, 59(4), 828-843.

Kennedy, B., Tyson, A., & Saks, E. (2023, February 15). Public awareness of artificial intelligence in everyday activities. Pew Research Center. https://www.pewresearch.org/science/2023/02/15/public-awareness-of-artificial-intelligence-in-everyday-activities/ 

Mäntymäki, M., Minkkinen, M., Birkstedt, T., & Viljanen, M. (2022). Defining organizational AI governance. AI and Ethics, 2(4), 603-609.

Maslej, N., Fattorini, L., Perrault, R., Parli, V., Etchemendy, J., Shoham, Y., & Ligett, K. (2024, November). The Global AI Vibrancy Tool. Stanford University. https://aiindex.stanford.edu/wp-content/uploads/2024/11/Global_AI_Vibrancy_Tool_Paper_November2024.pdf 

Modhvadia, R., Colom, A., Strait, A., Field Reid, O., & Peppin, A. (2023). How do people feel about AI? A nationally representative survey of public attitudes to artificial intelligence in Britain. Ada Lovelace Institute. https://www.adalovelaceinstitute.org/report/public-attitudes-ai/ 

Robertson, D. (2024, May 6). Exclusive poll: Americans favor AI data regulation. POLITICO. https://www.politico.com/newsletters/digital-future-daily/2024/05/06/exclusive-poll-americans-favor-ai-data-regulation-00156350 

Tyson, A., & Kikuchi, E. (2023, August 28). Growing public concern about the role of artificial intelligence in daily life. Pew Research Center. https://www.pewresearch.org/short-reads/2023/08/28/growing-public-concern-about-the-role-of-artificial-intelligence-in-daily-life/ 

Wilczek, B., Thäsler-Kordonouri, S., & Eder, M. (2024). Government regulation or industry self-regulation of AI? Investigating the relationships between uncertainty avoidance, people’s AI risk perceptions, and their regulatory preferences in Europe. AI & SOCIETY, 1-15.

Yun, J. M. (2024). The Folly of AI Regulation. George Mason Law & Economics Research Paper, (24-23).

Zhang, A. H. (2024). High Wire: How China Regulates Big Tech and Governs Its Economy. Oxford University Press.

Πολιτική Cookies