Σχόλιο για τους νέους κομβικούς κανόνες της ΕΕ για την τεχνητή νοημοσύνη έκανε ο Peter Sandkuijl, VP, EMEA Engineering & Check Point Evangelist στην Check Point Software Technologies.
Η εταιρεία, εισηγμένη στον Nasdaq, είναι κορυφαίος πάροχος πλατφόρμας κυβερνοασφάλειας υποστηριζόμενης από AI στον κυβερνοχώρο που παρέχεται μέσω cloud.
«Η ταχεία εξάπλωση του AI, ιδιαίτερα του Generative AI έχει φέρει τεράστιες ευκαιρίες καθώς και σημαντικούς κινδύνους. Ο νέος νόμος της ΕΕ για την τεχνητή νοημοσύνη στοχεύει στη θέσπιση ελέγχων και διαβαθμίσεων για τη χρήση της τεχνητής νοημοσύνης, καθώς ο κίνδυνος ο κίνδυνος αυτόματης αναγνώρισης κάθε προσώπου σε ένα δωμάτιο, της ανάλυσης των συναισθημάτων, των εκφράσεων του προσώπου , ακόμα και της καταγωγής είναι ανησυχητικός. Δεν πρόκειται για την καταστολή της καινοτομίας, αλλά για τη δημιουργία ενός νομικού πλαισίου που ευθυγραμμίζεται με τις δημοκρατικές αξίες αλλά και προστατεύει τα δικαιώματα των πολιτών της ΕΕ.
Αυτός είναι ο πρώτος παγκόσμιος νόμος που προσπαθεί να αντιμετωπίσει τον κίνδυνο που μπορεί να επιφέρει η τεχνητή νοημοσύνη και να μετριάσει τον κίνδυνο πρακτικών εφαρμογής της που παραβιάζουν τα ανθρώπινα δικαιώματα ή διαιωνίζουν προκαταλήψεις. Είτε πρόκειται για σάρωση βιογραφικών με εγγενή μεροληψία φύλου, είτε για διάχυτη επιτήρηση δημόσιων χώρων με κάμερες υποστηριζόμενες με τεχνητή νοημοσύνη, είτε για επεμβατική ανάλυση ιατρικών δεδομένων που επηρεάζει την ασφάλιση υγείας ενός ατόμου, ο νόμος της ΕΕ για την τεχνητή νοημοσύνη επιδιώκει να θέσει σαφή όρια για την ανάπτυξη της, έτσι ώστε οι προμηθευτές και οι προγραμματιστές να έχουν κάποιες οδηγίες και όρια προστασίας. Με αυτόν τον τρόπο η γραμμή οριοθέτησης θα είναι σαφής σε όλους και θα είναι δυνατή η πρόσβαση και τα εργαλεία για τη δίωξη όσων πάνε εναντίον της.
»Η διαφάνεια είναι το πλέον σημαντικό θέμα στην προσέγγιση της ΕΕ, ειδικά όσον αφορά την Generative AI. Επιβάλλοντας διαφάνεια στη διαδικασία εκπαίδευσης της τεχνητής νοημοσύνης, αυτή η νομοθεσία στοχεύει να αποκαλύψει πιθανές μεροληψίες και λάθη τεχνητής νοημοσύνης που έγιναν πριν γίνουν δεκτά ως αλήθεια. Ας μην ξεχνάμε ότι η τεχνητή νοημοσύνη δεν είναι πάντα σωστή. Αντιθέτως, κάνει περισσότερα λάθη από όσα θα επιτρέπαμε να κάνει σχεδόν οποιαδήποτε τεχνολογία σήμερα και, επομένως, η διαφάνεια γίνεται ένα κρίσιμο εργαλείο για τον μετριασμό των αδυναμιών της.
Η αρχική προσοχή θα πέσει στα βαριά πρόστιμα που επιβλήθηκαν, ωστόσο αυτό δεν πρέπει να είναι το επίκεντρο της προσοχής. Καθώς οι νόμοι γίνονται αποδεκτοί, θα εξακολουθήσουν να δοκιμάζονται στα δικαστήρια, θέτοντας προηγούμενα για μελλοντικούς παραβάτες. Πρέπει να καταλάβουμε ότι αυτό θα πάρει χρόνο για να υλοποιηθεί, κάτι που μπορεί στην πραγματικότητα να είναι πιο χρήσιμο, αν και όχι τελικός στόχος.
Η ταχεία ταχύτητα υιοθέτησης της τεχνητής νοημοσύνης καταδεικνύει ότι η νομοθεσία από μόνη της δεν μπορεί να συμβαδίσει και η τεχνολογία είναι τόσο ισχυρή που μπορεί και μπορεί να επηρεάσει σοβαρά τις βιομηχανίες, τις οικονομίες και τις κυβερνήσεις. Η ελπίδα μου για τη νομοθεσία της ΕΕ για την τεχνητή νοημοσύνη είναι ότι θα χρησιμεύσει ως καταλύτης για ευρύτερες κοινωνικές συζητήσεις, ωθώντας τους ενδιαφερόμενους να εξετάσουν όχι μόνο τι μπορεί να επιτύχει η τεχνολογία αλλά και ποιες μπορεί να είναι οι επιπτώσεις.
Καθιερώνοντας σαφείς κατευθυντήριες γραμμές και ενθαρρύνοντας τον συνεχή διάλογο, ανοίγει το δρόμο για ένα μέλλον όπου η τεχνητή νοημοσύνη θα χρησιμεύει ως δύναμη περισσότερο για το καλό, που στηρίζεται σε ηθικούς προβληματισμούς και κοινωνική συναίνεση.»