Η Ισπανική Υπηρεσία Προστασίας Δεδομένων (AEPD) κίνησε αυτεπάγγελτα διαδικασία έρευνας κατά της αμερικανικής εταιρείας OpenAI, ιδιοκτήτριας της υπηρεσίας ChatGPT, για πιθανή παράβαση των κανονισμών.
Σύμφωνα με ανακοίνωση του ισπανικού κρατικού φορέα AEPD, ζητήθηκε από την Ευρωπαϊκή Επιτροπή Προστασίας Δεδομένων να συμπεριληφθεί το ChatGPT ως θέμα που πρέπει να συζητηθεί στο συνεδρίαση της ολομέλειας. «Θα πρέπει να υπάρξουν συντονισμένες ενέργειες σε ευρωπαϊκό επίπεδο για την εφαρμογή των κανονισμών για την προστασία δεδομένων» αναφέρει σε ανακοίνωσή της η iσπανική υπηρεσία.
«Οι αμφιβολίες σχετικά με τον αντίκτυπο της εφαρμογής τεχνητής νοημοσύνης ChatGPT, που δημιουργήθηκε από την αμερικανική εταιρεία OpenAI, έχουν φτάσει και στην Ισπανία, μετά τις υποψίες που έχει δημιουργήσει στις κυβερνήσεις της Ιταλίας, των Ηνωμένων Πολιτειών και της Κίνας, γράφει η El Pais.
«Η ανάπτυξη και εφαρμογή καινοτόμων τεχνολογιών όπως η τεχνητή νοημοσύνη πρέπει να γίνεται με πλήρη σεβασμό της ισχύουσας νομοθεσίας. Μόνο από αυτό το σημείο εκκίνησης μπορεί να υπάρξει μια τεχνολογική ανάπτυξη, συμβατή με δικαιώματα και ελευθερίες» προειδοποιεί η ισπανική εφημερίδα.
Τι συμβαίνει με το ChatGPT;
Υπάρχει πρόβλημα με τις δυνατότητες της τεχνητής νοημοσύνης; Κατ’ αρχήν, με το ChatGPT, η πρώτη τεχνητή νοημοσύνη για όλους, ήρθε στην αγορά. Μέχρι πρόσφατα, μόνο πολύ μορφωμένοι και φιλόδοξοι επιστήμονες υπολογιστών μπορούσαν να χρησιμοποιήσουν τα επιτεύγματα της τεχνητής νοημοσύνης. Αυτό έχει αλλάξει από τον περασμένο Νοέμβριο και την εμφάνιση του ChatGPT.
Πού είναι οι ευκαιρίες και οι κίνδυνοι; Η τεχνητή νοημοσύνη είναι μια επανάσταση με τον ίδιο τρόπο όπως το τυπογραφείο, η ατμομηχανή, ο ηλεκτρισμός, το αεροπλάνο, το Διαδίκτυο ή το smartphone. Η τεχνητή νοημοσύνη είναι ήδη παρούσα στη ζωή μας όταν κυκλοφορούμε χρησιμοποιώντας το GPS, όταν ζητάμε από μια εφαρμογή να αναγνωρίσει ένα δέντρο σε ένα δάσος, να μεταφράσει ένα άρθρο από τους New York Times, όταν χρησιμοποιούμε την Alexa της Google ή το Siri για να μάθουμε πότε γεννήθηκε ο αγαπημένος μας τραγουδιστής ή όταν βοηθά τον τραπεζίτη σας να αποφασίσει αν θα σας χορηγήσει ή όχι στεγαστικό δάνειο.
«Η τεχνητή νοημοσύνη θα αλλάξει τη ζωή μας περισσότερο από ό,τι το Διαδίκτυο» λέει η επιστήμονας επικοινωνίας Μίριαμ Μέκελ. «Όταν το ChatGPT βγήκε στην αγορά πέρυσι, ξαφνικά όλοι θα μπορούσαν να κάνουν συνομιλίες με την Artificial Intelligence (AI) από το σπίτι ή να δώσουν εντολή για τη συγγραφή κειμένων» προσθέτει και εξηγεί: Ένα νέο μεγάλο βήμα έγινε με την εμφάνιση του Chat GPT, αυτού του λογισμικού τεχνητής νοημοσύνης που συναρπάζει και τρομάζει, που δίνει την εντύπωση ότι περνάμε σε μια νέα εποχή. Το Chat GPT, ένας συνομιλητής, ικανός να προσφέρει μια παρουσίαση για το φροϋδικό ασυνείδητο, για κάθε πλευρά της ζωής.
Αλλά η τεχνητή νοημοσύνη εγκυμονεί έναν κίνδυνο: Ποτέ δεν ήταν τόσο εύκολο όσο είναι σήμερα να χρησιμοποιηθούν προγράμματα τεχνητής νοημοσύνης για την παραποίηση γεγονότων.
Τα συστήματα τεχνητής νοημοσύνης μπορούν να έχουν τεράστιο αντίκτυπο σε πολλές πτυχές της ζωής μας, από την εργασία μέχρι την ιδιωτική ζωή. Και οι πολιτικοί πρέπει να διασφαλίσουν ότι τα συστήματα τεχνητής νοημοσύνης αναπτύσσονται, εφαρμόζονται και χρησιμοποιούνται ηθικά και υπεύθυνα για να αποφευχθούν αρνητικές επιπτώσεις στην κοινωνία.
Ανθρώπινη εφεύρεση
Βιώνουμε μια πολιτιστική εξέλιξη αυτή τη στιγμή και το τέλος της οποίας δεν το γνωρίζουμε ακόμη. «Πάντα μιλάμε για το τι κάνει η τεχνολογία. Δεν κάνει τίποτα. Το εφευρίσκουμε, το χρησιμοποιούμε. Ό,τι κάνει η τεχνητή νοημοσύνη, προέρχεται από το γεγονός ότι αλληλεπιδρούμε μαζί της, την τροφοδοτούμε και αντιδρούμε σε αυτό» λέει η Ανκε Ντόμσχέιτ-Μπεργκ, από τους πιο γνωστούς ψηφιακούς ακτιβιστές στη Γερμανία. Αναφέρει μια μελέτη, σύμφωνα με την οποία 300 εκατομμύρια θέσεις εργασίας παγκοσμίως κινδυνεύουν από την τεχνητή νοημοσύνη. «Αλλά δεν είναι το ChatGPT που μπορεί να σκοτώνει θέσεις εργασίας, είναι οι διευθυντές που απολύουν ανθρώπους» επισημαίνει.
Η τεχνητή νοημοσύνη στερείται συνείδησης, εξαρτάται μόνο από ανθρώπινα δεδομένα. θα μπορούσε ο αλγόριθμος πίσω από μια τέτοια εφαρμογή πχ να είναι προγραμματισμένος να παράγει αποτελέσματα κλείνοντας προς μια θέση ή μια άποψη; Επηρεάζοντας έτσι ότι παράγει;
Και στην περίπτωση του Chat GPT, η τεχνητή νοημοσύνη δεν έχει συνείδηση, μεταγνώση ή πραγματική νοημοσύνη. Παράγει μόνο αλληλουχίες λέξεων, δισεκατομμύρια πληροφορίες που μπορούν να ξεφύγουν του ελέγχου ανά πάσα στιγμή και οδηγούν σε εντελώς σουρεαλιστικά και τυχαία πράγματα που θα απαιτούν πάντα την κριτική ανθρώπινη επικύρωση.
Όπως λέει η Λοράνς Ντεβιγιέ, καθηγήτρια τεχνητής νοημοσύνης και ηθικής στο Πανεπιστήμιο της Σορβόννης, «η τεχνητή νοημοσύνη παραμένει μια ανθρώπινη εφεύρεση, επομένως θα πρέπει να μιλάμε μάλλον για ψευδαίσθηση ή τεχνητή μίμηση. Πρέπει πάνω απ’ όλα να μάθουμε τι μπορούν να κάνουν αυτές οι μηχανές από τα ανθρώπινα δεδομένα, από τα οποία μπορούν να βρουν στατιστικές κανονικότητες για να μοντελοποιήσουμε τη σκέψη μας. Αλλά αυτό χωρίς καμία λογική, χωρίς καμία πρόθεση, χωρίς καμία συνείδηση. Είναι σε θέση να δημιουργήσουν μια ψευδογλώσσα σαν τη δική μας, χάρη σε μια προβολή που βασίζεται σε ανθρώπινα δεδομένα. Μια διαδικασία που δεν είναι χωρίς πρόκληση ηθικών ζητημάτων».
Η περίπτωση του συνομιλητή Chat GPT
Για παράδειγμα, το ChatGPT, το οποίο επί του παρόντος αποτελεί αντικείμενο πολλών συζητήσεων, ενεργεί μόνο με τον προγραμματισμό, αποκλειστικά ανθρώπινων δεδομένων. Βασίζεται στον εκπληκτικό όγκο γνώσης και σε ανθρώπινες συνομιλίες στο Διαδίκτυο για να τις επαναφέρει σε μια πολύ πειστική μορφή.
Ο συγγραφέας σε θέματα τεχνητής νοημοσύνης Λουκ Τζουλιά εξηγεί: «Το ChatGPT διαθέτει στατιστικά έγκυρα δεδομένα, αλλά χωρίς αυτό να σημαίνει ότι είναι σε θέση να κατανοήσει τα κείμενα που μας προτείνει. Απλώς, έχει αποθηκεύσει δισεκατομμύρια δεδομένα και χάρη σε αυτό, μπορεί να προβλέψει προτάσεις που σχετίζονται με το θέμα που πρόκειται να υποβάλετε σε αυτό».
Η Λοράνς Ντεβιγιέ τονίζει ότι η AI δεν θα αισθανθεί ποτέ ανθρώπινα συναισθήματα. «Ακόμη κι αν κάποτε η AI γίνει ικανή για αυτό, θα είναι μόνο υπό την επίδραση μιας προσομοίωσης. Δεν θα υπάρχει απολύτως καμία ανθρώπινη εσωτερικότητα, δεν θα βιώσει ποτέ κάτι σαν τους ανθρώπους, ακόμα κι αν ορισμένες συγκεκριμένες μεταβλητές πόνου ή ευχαρίστησης που βασίζονται σε εξωτερική συμπεριφορά θα μπορούσαν να ενσωματωθούν από επιστήμονες. Για παράδειγμα, ακόμα κι αν ένα συναισθηματικό ρομπότ μπορεί να μιμηθεί την ενσυναίσθηση, δεν θα είναι ποτέ ενσυναίσθητο, γιατί η τεχνητή νοημοσύνη δεν έχει συνείδηση».
Όχι τυφλή καθοδήγηση
Πρέπει να μάθουμε να αντιμετωπίζουμε τα όρια της τεχνητής νοημοσύνης και να μην παραβλέπουμε τους κινδύνους , να μην επιτρέψουμε στον εαυτό μας να καθοδηγείται τυφλά και αφελώς από τις ψευδείς πληροφορίες που θα μπορούσε να μας προσφέρει το ChatGPT.
Όλοι οι ειδικοί πιστεύουν ότι η βασική αρχή για να είναι χρήσιμη η τεχνητή νοημοσύνη, είναι να επαληθεύουμε απόλυτα, να διασταυρώνουμε, να μην λαμβάνουμε αφελώς κάθε πληροφορία ως απόλυτη αλήθεια.
Αυτά είναι τα κύρια ηθικά ζητήματα που εγείρονται από την AI. Με πρώτο, την ανευθυνότητα των ανενημέρωτων χρηστών,που δεν καταφέρνουν να το κάνουν. Και αυτό -λένε οι ειδικοί -είναι ένα θεμελιώδες θέμα που η κοινωνία πρέπει να αντιμετωπίσει κατά μέτωπο. Εάν η τεχνητή νοημοσύνη καθιστά δυνατό να κάνουμε φανταστικά πράγματα, αυτά τα συστήματα μπορούν επίσης να μας κλειδώσουν εντελώς σε νέους τρόπους σκέψης, χωρίς να γνωρίζουμε εάν οι πληροφορίες είναι αληθείς ή ψευδείς.
Είναι μόνο Βοηθός
Μια εφαρμογή όπως το ChatGPT ,δίνει τη δυνατότητα στους ανθρώπους «να λένε τέλεια ψέματα και να υποστηρίζουν τα ψέματα με τα λεγόμενα στοιχεία» λέει ο πρόεδρος της ψηφιακής ένωσης Bitkom,Ακίμ Μπεργκ .Μιλάει για «πληροφοριακή ρύπανση» και απαιτεί: «Πρέπει να κάνουμε προγράμματα όπως το ChatGPT κατανοητά σε όλους τους επιστήμονες». Αλλά δεν είναι μόνο τα ίδια τα συστήματα που πρέπει να είναι διαφανή: «Τα δεδομένα με τα οποία τα τροφοδοτούμε , πρέπει επίσης να είναι διαφανή» λέει η Μέκελ. «Είμαστε οι άνθρωποι που δίνουμε στις μηχανές τους κανόνες».
Αναμφίβολα, η τεχνητή νοημοσύνη θα μπορέσει να μας προσφέρει μεγάλη υπηρεσία στην τελειοποίηση των ερευνών στον κόσμο της ιατρικής και της υγείας, στην ανίχνευση ασθενειών, σε εξατομικευμένες θεραπείες χάρη στην ομαδοποίηση δεδομένων. «Αλλά θα πρέπει να θεωρείται μόνο ως βοηθός και δεν πρέπει απολύτως να αντικαθιστά τον γιατρό, είναι μόνο βοηθός» διευκρινίζει ο Λουκ Τζουλιά.