Το Ευρωκοινοβούλιο έκρινε την Τετάρτη το πρώτο σημαντικό σύνολο ρυθμιστικών βασικών κανόνων στον κόσμο για την τεχνητή νοημοσύνη.
Οι ευρωβουλευτές ενέκριναν το κείμενο στο οποίο είχαν συμφωνήσει με τα κράτη μέλη τον Δεκέμβριο του 2023 με ευρεία πλειοψηφία και συγκεκριμένα με 523 ψήφους υπέρ, 46 ψήφους κατά. 49 ευρωβουλευτές απείχαν.
Στόχος της νέας νομοθεσίας είναι να προστατέψει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, αλλά και να ενισχύσει παράλληλα την καινοτομία και να αναδείξει την Ευρώπη ως πρωτοπόρο δύναμη στον τομέα αυτό.
Γι’ αυτόν τον σκοπό, ο κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση τους.
«Η Ευρώπη είναι ΤΩΡΑ παγκόσμιος ρυθμιστής προτύπων στην τεχνητή νοημοσύνη», έγραψε στο X ο Τιερί Μπρετόν, ο Ευρωπαίος Επίτροπος για την εσωτερική αγορά.
Promised. Negotiated. Approved.
Proud of Europe's trailblazing #AIAct.
It means leadership, innovation & new avenues. But equally respect for fundamental rights.
Artificial intelligence is already very much part of our daily lives. Now, it will be part of our legislation too. pic.twitter.com/dUu3IUa1lT
— Roberta Metsola (@EP_President) March 13, 2024
Η Πρόεδρος του Ευρωπαϊκού Κοινοβουλίου, Ρομπέρτα Μέτσολα, χαρακτήρισε την πράξη ως πρωτοποριακή, λέγοντας ότι θα επιτρέψει την καινοτομία, ενώ θα προστατεύει τα θεμελιώδη δικαιώματα.
«Η τεχνητή νοημοσύνη είναι ήδη σε μεγάλο βαθμό μέρος της καθημερινότητάς μας. Τώρα, θα είναι και μέρος της νομοθεσίας μας», έγραψε σε ανάρτησή της στα μέσα κοινωνικής δικτύωσης.
Κατηγορίες κινδύνου
Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη, ο οποίος «γεννήθηκε» το 2021, χωρίζει την τεχνολογία αυτή σε κατηγορίες κινδύνου, που κυμαίνονται από «απαράδεκτη» — που θεωρεί την τεχνολογία απαγορευμένη — έως υψηλού, μεσαίου και χαμηλού κινδύνου.
Ορισμένες χώρες της ΕΕ είχαν προηγουμένως υποστηρίξει την αυτορρύθμιση έναντι των κυβερνητικών περιορισμών, εν μέσω ανησυχιών ότι η ασφυκτική ρύθμιση θα μπορούσε να θέσει εμπόδια στην πρόοδο της Ευρώπης να ανταγωνιστεί τις κινεζικές και αμερικανικές εταιρείες στον τομέα της τεχνολογίας. Οι επικριτές περιλαμβάνουν τη Γερμανία και τη Γαλλία, στις οποίες στεγάζονται μερικές από τις πολλά υποσχόμενες νεοσύστατες επιχειρήσεις τεχνητής νοημοσύνης στην Ευρώπη.
Τεχνητή Νοημοσύνη: Δεν συμφωνεί με τους ευρωπαϊκούς κανόνες ο Μακρόν
Η ΕΕ προσπαθεί να συμβαδίσει με τον αντίκτυπο των τεχνολογικών εξελίξεων στους καταναλωτές και την υπεροχή των βασικών παικτών – κολοσσών ΑΙ στην αγορά.
Την περασμένη εβδομάδα, η Ένωση έθεσε σε ισχύ τη νομοθεσία ορόσημο για τον ανταγωνισμό που θα περιορίσει τους γίγαντες των ΗΠΑ. Σύμφωνα με τον Νόμο για τις Ψηφιακές Αγορές, η ΕΕ μπορεί να πατάξει τις αντιανταγωνιστικές πρακτικές από μεγάλες εταιρείες τεχνολογίας και να τις αναγκάσει να ανοίξουν τις υπηρεσίες τους σε τομείς όπου η δεσπόζουσα θέση τους έχει καταπνίξει τους μικρότερους παίκτες και την ελευθερία επιλογής των χρηστών. Έξι εταιρείες — Τιτάνες των ΗΠΑ Alphabet, Amazon, η Apple, η Meta, η Microsoft και η Bytedance της Κίνας — έχουν τεθεί υπό ειδοποίηση ως οι λεγόμενοι «gatekeepers».
Καθολική απαγόρευση ορισμένων πρακτικών
Οι νέοι κανόνες απαγορεύουν τις εφαρμογές της τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων.
Θα απαγορεύονται επίσης η αναγνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση (όταν βασίζεται αποκλειστικά στην κατάρτιση προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων.
Εξαιρέσεις για τις αρχές επιβολής του νόμου
Η χρήση συστημάτων βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου απαγορεύεται κατά κανόνα, με εξαίρεση τις συγκεκριμένες περιπτώσεις που παραθέτει και ορίζει λεπτομερώς ο νέος κανονισμός.
Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» επιτρέπεται μόνο υπό αυστηρέ προϋποθέσεις: αν, για παράδειγμα, η βιομετρική ταυτοποίηση θα χρησιμοποιηθεί μόνο για περιορισμένο χρόνο και σε περιορισμένη γεωγραφική έκταση, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρχές. Τέτοιες περιπτώσεις μπορεί να είναι η στοχευμένη αναζήτηση αγνοουμένου προσώπου ή η πρόληψη μιας τρομοκρατικής επίθεσης.
Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε ύστερο χρόνο» θεωρείται υψηλού κινδύνου και απαιτεί δικαστική έγκριση που θα συνδέεται με κάποιο ποινικό αδίκημα.
Υποχρεώσεις για τα συστήματα υψηλού κινδύνου
Ο νέος κανονισμός θέτει σαφείς υποχρεώσεις και για τα υπόλοιπα συστήματα τεχνητής νοημοσύνης που θεωρούνται υψηλού κινδύνου, λόγω των σημαντικών επιβλαβών επιπτώσεων που ενδέχεται να έχουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου.
Το κείμενο απαριθμεί τους τομείς στους οποίους χρησιμοποιούνται ή ενδέχεται να χρησιμοποιηθούν τέτοια συστήματα και οι οποίοι είναι: οι κρίσιμες υποδομές, η εκπαίδευση και η επαγγελματική κατάρτιση, η απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τράπεζες), η επιβολή του νόμου, η διαχείριση της μετανάστευσης και των συνόρων, καθώς και οι δικαστικές και δημοκρατικές διαδικασίες (π.χ. για τον επηρεασμό εκλογικών διαδικασιών).
Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για τυχόν αποφάσεις που βασίστηκαν σε συστήματα υψηλού κινδύνου και επηρεάζουν τα δικαιώματά τους.
Απαιτήσεις για διαφάνεια
Τα συστήματα τεχνητής νοημοσύνης «γενικής χρήσης» και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσής τους με τη νομοθεσία της ΕΕ για τα δικαιώματα πνευματικής ιδιοκτησίας και της δημοσιοποίησης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιούν για την εκπαίδευση των μοντέλων τους.
Για τα ισχυρότερα μοντέλα που μπορούν να δημιουργήσουν συστημικούς κινδύνους θα ισχύουν επιπλέον απαιτήσεις, όπως η αξιολόγησή τους, η εκτίμηση και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με περιστατικά και δυσλειτουργίες.
Επιπλέον, αν οποιοδήποτε οπτικοακουστικό υλικό είναι τεχνητό ή παραποιημένο (τα λεγόμενα «προϊόντα βαθυπαραποίησης» ή «deepfakes») θα πρέπει να επισημαίνεται σαφώς.
Μέτρα για στήριξη της καινοτομίας και των μικρών και μεσαίων επιχειρήσεων
Οι εθνικές αρχές κάθε χώρας θα πρέπει να δημιουργήσουν «ρυθμιστικά δοκιμαστήρια» για να δοκιμάζονται σε πραγματικές συνθήκες τα συστήματα τεχνητής νοημοσύνης.
Οι δομές αυτές θα πρέπει να είναι προσβάσιμες στις μικρές και μεσαίες επιχειρήσεις, καθώς και στις νεοφυείς επιχειρήσεις, για να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα μοντέλα τεχνητής νοημοσύνης πριν από τη διάθεσή τους στην αγορά.
Δηλώσεις εισηγητών
Κατά τη συζήτηση στην ολομέλεια την Τρίτη, ο συνεισηγητής της Επιτροπής Εσωτερικής Αγοράς Brando Benifei (Σοσιαλιστές, Ιταλία) δήλωσε: «Έχουμε επιτέλους την πρώτη νομοθεσία στον κόσμο για την τεχνητή νοημοσύνη, για τη μείωση των κινδύνων, τη δημιουργία ευκαιριών, την καταπολέμηση των διακρίσεων και την επίτευξη διαφάνειας. Χάρη στο Κοινοβούλιο, η Ευρώπη απαγορεύει απαράδεκτες χρήσεις της τεχνητής νοημοσύνης και προστατεύει τα δικαιώματα εργαζομένων και πολιτών. Η νέα Υπηρεσία Τεχνητής Νοημοσύνης που θα συσταθεί θα υποστηρίξει τις εταιρείες προκειμένου να αρχίσουν να συμμορφώνονται με τους κανόνες πριν από την έναρξη ισχύος τους. Διασφαλίσαμε ότι οι άνθρωποι και οι ευρωπαϊκές αξίες βρίσκονται στο επίκεντρο της ανάπτυξης της τεχνητής νοημοσύνης».
Ο συνεισηγητής της Επιτροπής Πολιτικών Ελευθεριών Dragos Tudorache (Renew, Ρουμανία) δήλωσε: «Η ΕΕ πέτυχε. Έχουμε συνδέσει την έννοια της τεχνητής νοημοσύνης με τις δημοκρατικές αξίες που αποτελούν το θεμέλιο των κοινωνιών μας. Ωστόσο, υπάρχει πολλή δουλειά πέρα από την νομοθεσία αυτή για την τεχνητή νοημοσύνη. Η τεχνολογία θα μας ωθήσει να επανεξετάσουμε το κοινωνικό συμβόλαιο που βρίσκεται στην καρδιά των δημοκρατιών μας, τα εκπαιδευτικά μας μοντέλα, τις αγορές εργασίας και τον τρόπο με τον οποίο διεξάγουμε πόλεμο. Η νομοθεσία για την τεχνητή νοημοσύνη αποτελεί σημείο εκκίνησης για ένα νέο μοντέλο διακυβέρνησης που βασίζεται στην τεχνολογία. Πρέπει τώρα να επικεντρωθούμε στην εφαρμογή αυτού των κανόνων στην πράξη».
Ο κανονισμός θα υποβληθεί πλέον σε τελικό έλεγχο από ειδικούς νομικούς της ΕΕ και αναμένεται να εγκριθεί οριστικά πριν από το τέλος της κοινοβουλευτικής περιόδου (η λεγόμενη διαδικασία διορθωτικού κειμένου). Ο κανονισμός θα πρέπει επίσης να εγκριθεί επίσημα και από το Συμβούλιο.
Θα τεθεί σε ισχύ 20 ημέρες μετά τη δημοσίευσή του στην Επίσημη Εφημερίδα της Ευρωπαϊκής Ένωσης και θα αρχίσει να εφαρμόζεται πλήρως 24 μήνες μετά την έναρξη της ισχύος του.
Εξαίρεση θα αποτελέσουν οι εξής διατάξεις του: η καθολική απαγόρευση ορισμένων πρακτικών που θα αρχίσει να εφαρμόζεται έξι μήνες μετά την έναρξη ισχύος του κανονισμού, οι κώδικες δεοντολογίας (εννέα μήνες μετά την έναρξη ισχύος), οι κανόνες για την τεχνητή νοημοσύνη γενικής χρήσης, συμπεριλαμβανομένων των κανόνων για τη διακυβέρνηση (12 μήνες μετά την έναρξη ισχύος), και οι υποχρεώσεις για συστήματα υψηλού κινδύνου (36 μήνες).