Η OpenAI ανακοίνωσε σήμερα ότι θα προσπαθήσει να καταπολεμήσει τις «ψευδαισθήσεις» της τεχνητής νοημοσύνης, με μια νεότερη μέθοδο εκπαίδευσης μοντέλων τεχνητής νοημοσύνης, σύμφωνα με το CNBC.
Η έρευνα έρχεται σε μια εποχή που η παραπληροφόρηση που προέρχεται από τα συστήματα τεχνητής νοημοσύνης συζητείται πιο έντονα από ποτέ, εν μέσω της έκρηξης της δημιουργικής τεχνητής νοημοσύνης και της προετοιμασίας για τις προεδρικές εκλογές του 2024 στις ΗΠΑ. Το OpenAI επιτάχυνε την έκρηξη της γενετικής AI πέρυσι, όταν κυκλοφόρησε το ChatGPT, το chatbot του που τροφοδοτείται από το GPT-3 και το GPT-4, και ξεπέρασε τα 100 εκατομμύρια μηνιαίους χρήστες σε δύο μήνες, θέτοντας, σύμφωνα με πληροφορίες, ρεκόρ για την ταχύτερα αναπτυσσόμενη εφαρμογή. Μέχρι σήμερα, η Microsoft έχει επενδύσει περισσότερα από 13 δισεκατομμύρια δολάρια στην OpenAI και η αξία της νεοσύστατης επιχείρησης έχει φτάσει περίπου τα 29 δισεκατομμύρια δολάρια.
Οι ψευδαισθήσεις της τεχνητής νοημοσύνης προκύπτουν όταν μοντέλα όπως το ChatGPT της OpenAI ή το Bard της Google κατασκευάζουν πληροφορίες εξ ολοκλήρου, συμπεριφερόμενα σαν να ξεστομίζουν γεγονότα. Ένα παράδειγμα: Στο διαφημιστικό βίντεο της Google τον Φεβρουάριο για το Bard, το chatbot κάνει έναν αναληθή ισχυρισμό σχετικά με το διαστημικό τηλεσκόπιο James Webb. Πιο πρόσφατα, το ChatGPT επικαλέστηκε «ψεύτικες» υποθέσεις σε ομοσπονδιακό δικαστήριο της Νέας Υόρκης και οι δικηγόροι της Νέας Υόρκης που συμμετείχαν ενδέχεται να αντιμετωπίσουν κυρώσεις.
«Ακόμα και τα μοντέλα τελευταίας τεχνολογίας είναι επιρρεπή στο να παράγουν ψεύδη – παρουσιάζουν την τάση να επινοούν γεγονότα σε στιγμές αβεβαιότητας», έγραψαν οι ερευνητές του OpenAI στην έκθεση. «Αυτές οι ψευδαισθήσεις είναι ιδιαίτερα προβληματικές σε τομείς που απαιτούν συλλογισμό πολλών βημάτων, καθώς ένα μόνο λογικό λάθος είναι αρκετό για να εκτροχιάσει μια πολύ μεγαλύτερη λύση».
Η πιθανή νέα στρατηγική του OpenAI για την καταπολέμηση των ψευδαισθήσεων: Εκπαίδευση των μοντέλων τεχνητής νοημοσύνης ώστε να ανταμείβουν τον εαυτό τους για κάθε επιμέρους σωστό βήμα συλλογισμού όταν καταλήγουν σε μια απάντηση, αντί να ανταμείβουν μόνο ένα σωστό τελικό συμπέρασμα. Η προσέγγιση ονομάζεται «επιτήρηση της διαδικασίας», σε αντίθεση με την «επιτήρηση του αποτελέσματος», και θα μπορούσε να οδηγήσει σε καλύτερα ερμηνεύσιμη τεχνητή νοημοσύνη, σύμφωνα με τους ερευνητές, καθώς η στρατηγική ενθαρρύνει τα μοντέλα να ακολουθούν περισσότερο μια προσέγγιση που μοιάζει με την ανθρώπινη αλυσίδα «σκέψης».