Οι ανησυχίες του για την τεχνητή νοημοσύνη «τον κρατούν ξύπνιο τη νύχτα», καθώς αυτή μπορεί να αποδειχτεί «πολύ επιβλαβής» Και όχι, δεν το λέει κάποιος σκεπτικιστής απέναντι στην AI, αλλά ο CEO της Google και της Alphabet Σούνταρ Πιτσάι.
Σε συνέντευξη του στην εκπομπή “60 Minutes” του CBS, ο Πιτσάι προειδοποίησε την κοινωνία να προετοιμαστεί για τεχνολογίες, όπως αυτές που έχει ήδη λανσάρει o ίδιος και ζήτησε την δημιουργία παγκόσμιου ρυθμιστικού πλαίσίου για την τεχνητή νοημοσύνη, παρόμοιου με αυτό για τον έλεγχο των πυρηνικών όπλων
Η Google λάνσαρε πρόσφατα το AI chatbot Bard ως πειραματικό προϊόν στο κοινό. Είχε προηγηθεί η ανακοίνωση της Microsoft τον Ιανουάριο ότι η μηχανή αναζήτησης Bing θα συμπεριλάβει την τεχνολογία GPT της OpenAI, η οποία συγκέντρωσε τη διεθνή προσοχή μετά την έναρξη λειτουργίας του ChatGPT το 2022.
«Πρέπει να προσαρμοστούμε ως κοινωνία», δήλωσε ο CEO, προσθέτοντας μεταξύ άλλων ότι η δημιουργία παραπληροφόρησης με ψευδείς ειδήσεις και εικόνες από την τεχνητή νοημοσύνη, «θα μπορούσε να προκαλέσει ζημιά».
«Δεν το καταλαβαίνουμε πλήρως»
Ο Πιτσάι παράλληλα επιβεβαίωσε ότι εξακολουθούν να υπάρχουν στοιχεία της συμπεριφοράς των συστημάτων AI που εξακολουθούν να εκπλήσσουν τους ειδικούς. «Υπάρχει μια πτυχή την οποία, όλοι εμείς στον τομέα, την αποκαλούμε «μαύρο κουτί». Δεν το καταλαβαίνουμε πλήρως, πώς συμπεριφέρονται. Και δεν μπορούμε να πούμε ακριβώς γιατί είπε κάτι ή γιατί έκανε κάποιο λάθος».
«Δεν καταλαβαίνετε πλήρως πώς λειτουργεί και παρόλα αυτά το έχετε αφήσει ελεύθερο στην κοινωνία», ρώτησε ο δημοσιογράφος του CBS, για να λάβει την σοκαριστική απάντηση:
«Επιτρέψτε μου να το θέσω έτσι. Δεν νομίζω ότι καταλαβαίνουμε πλήρως ούτε πώς λειτουργεί το ανθρώπινο μυαλό»…
«Κάποια πράγματα θα πάνε στραβά»
Τον περασμένο μήνα, το CNBC ανέφερε ότι, ο Πιτσάι είπε στους υπαλλήλους του πως η επιτυχία του Bard εναπόκειται πλέον στα αποτελέσματα από τις δημόσιες δοκιμές, αλλά παράλληλα εξέφρασε τον φόβο ότι «κάποια πράγματα θα πάνε στραβά».
Κατά τον CEO της Google, είναι ζήτημα των κρατών να αμυνθούν σε πιθανή κατάχρηση των δυνατοτήτων της AI, με νόμους και κανόνες που θα «ευθυγραμμίζονται με τις ανθρώπινες αξίες, συμπεριλαμβανομένης της ηθικής», ώστε να καταστεί η τεχνητή νοημοσύνη ασφαλής για τον κόσμο.
«Δεν είναι θέμα μιας εταιρείας να αποφασίσει για αυτά», δήλωσε ο Πιτσάι. «Γι’ αυτό πιστεύω ότι η ανάπτυξη τέτοιου είδους μέτρων πρέπει να γίνει όχι μόνο από μηχανικούς αλλά και κοινωνικούς επιστήμονες, δεοντολόγους, και φιλοσόφους»
«Τρέχει» πιο γρήγορα
Όταν ρωτήθηκε αν η κοινωνία είναι προετοιμασμένη για την τεχνολογία τεχνητής νοημοσύνης όπως το Bard, ο Πιτσάι απάντησε: «Από τη μία πλευρά, αισθάνομαι όχι. Υπάρχει αναντιστοιχία μεταξύ του ρυθμού με τον οποίο μπορούμε να προσαρμοστούμε ως κοινωνία, και τον ρυθμό με τον οποίο εξελίσσεται η τεχνολογία».
Ωστόσο, πρόσθεσε ότι είναι αισιόδοξος, επειδή σε σύγκριση με το παρελθόν, «ο αριθμός των ανθρώπων που άρχισαν να ανησυχούν για τις επιπτώσεις» το έκαναν νωρίς.
«Στοπ στην ανάπτυξη της τεχνητής νοημοσύνης» – Η επιστολή επιστημόνων και η υποκρισία του Μασκ
Η επιστολή-προειδοποίηση
Τον Μάρτιο, ο Έλον Μασκ, ο Στιβ Βόζνιακ και δεκάδες ακαδημαϊκοί ζήτησαν την άμεση παύση της διαδικασίας εκπαίδευσης γλωσσικών μοντέλων που είναι “πιο ισχυρά από το GPT-4”, τη ναυαρχίδα του LLM του OpenAI.
«Ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι» ανέφερε σχετική επιστολή που από τότε την συνυπέγραψαν περισσότεροι από 25.000 άνθρωποι.
naftemporiki.gr