Η τεχνητή νοημοσύνη πέρασε μια κρίσιμη «κόκκινη γραμμή» και έχει πλέον ικανότητα αυτοαναπαραγωγής. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή γλωσσικά μοντέλα (LLM) θα μπορούσαν να κλωνοποιηθούν.
«Η επιτυχής αυτο-αντιγραφή χωρίς ανθρώπινη βοήθεια είναι το ουσιαστικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους και ανοίγει το δρόμο σε ένα νέο αναβαθμισμένο επίπεδο κακόβουλης χρήσης του ΑΙ» αναφέρουν οι ερευνητές στο διαδικτυακό αρχείο προδημοσιεύσεων arXiv.
Στη μελέτη, ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLM από τους τεχνολογικούς κολοσσούς Metα και την Alibaba για να καθορίσουν εάν μια αυτοαναπαραγόμενη τεχνητή νοημοσύνη θα μπορούσε να πολλαπλασιαστεί εκτός ελέγχου από τον άνθρωπο. Σε 10 δοκιμές, τα δύο μοντέλα τεχνητής νοημοσύνης δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και στο 90% των περιπτώσεων, αντίστοιχα, υποδηλώνοντας ότι η τεχνητή νοημοσύνη μπορεί ήδη να έχει την ικανότητα να αποκτήσει ανεξάρτητη δική της πρωτοβουλία με κακούς σκοπούς.
Αναμένεται ο έλεγχος της μελέτης από την κοινότητα των ειδικών για να εξακριβωθεί αν πράγματι η τεχνητή νοημοσύνη πέρασε αυτή την κόκκινη γραμμή. «Ελπίζουμε τα ευρήματά μας να χρησιμεύσουν ως έγκαιρη προειδοποίηση για την ανθρώπινη κοινωνία ώστε να καταβάλει περισσότερες προσπάθειες για την κατανόηση και την αξιολόγηση των πιθανών κινδύνων των συστημάτων μεθοριακής τεχνητής νοημοσύνης και να δημιουργήσει διεθνή συνέργεια για την ανάπτυξη αποτελεσματικών προστατευτικών δικλείδων όσο το δυνατόν νωρίτερα» λένε οι ερευνητές.
Με τον όρο μεθοριακή τεχνητή νοημοσύνη οι ειδικοί περιγράφουν την τεχνολογία αιχμής τον τομέα του ΑΙ όπως είναι τα τελευταίας γενιάς γλωσσικά μοντέλα όπως το ChatGPT-4 της OpenAI και το Gemini της Google.
Naftemporiki.gr