Skip to main content

DeepSeek: Σούπερ όπλο στα χέρια κακόβουλων η νέα τεχνολογία ΑΙ αναφέρει διεθνής έκθεση κορυφαίων ειδικών

REUTERS/Dado Ruvic/Illustration

Το πόρισμα τους εξηγεί τους επερχόμενους κινδύνους της επαναστατικής κινεζικής προσέγγισης στην ΑΙ.

Συνεχίζονται οι… μετασεισμοί του παγκόσμιου τεχνολογικού, οικονομικού και πολιτικού σοκ που προκάλεσε η εμφάνιση του chatbot χαμηλού κόστους της κινεζικής εταιρείας DeepSeek. Η κοινότητα των επιστημόνων της τεχνητής νοημοσύνης επισημαίνει τους σοβαρούς δυνητικούς κινδύνους που προκύπτουν από αυτή την εξέλιξη.

Σε έκθεση τους που τιτλοφορείται «Διεθνής Έκθεση Ασφάλειας Τεχνητής Νοημοσύνης» 96 κορυφαίοι ειδικοί στην ΑΙ από όλο τον κόσμο αναφέρονται στους τρόπους κακόβουλης χρήσης της οι οποίοι αυξάνονται σε αριθμό και επικινδυνότητα όσο εξελίσσονται με αυτόν τον ανεξέλεγκτο τρόπο αυτές οι τεχνολογίες. Ανάμεσα στους συγγραφείς της έκθεσης είναι ο νομπελίστας Τζέφρι Χίντον και ο Γιόσουα Μπέντζιο που έχει λάβει το βραβείο Άλαν Τούρινγκ οι οποίοι αποκαλούνται «νονοί» της τεχνητής νοημοσύνης εξαιτίας της πολύχρονης και πρωτοπόρου δράσης τους σε αυτόν τον τομέα.

«Η εμφάνιση του προγράμματος της DeepSeek θα σημάνει την έναρξη μιας ακόμη πιο ανταγωνιστικής αναμέτρησης κάτι που συνήθως δεν είναι καλό από την άποψη της ασφάλειας της τεχνητής νοημοσύνης. Οι αμερικανικές εταιρείες και άλλοι ανταγωνιστές της DeepSeek μπορεί να επιχειρήσουν να επικεντρωθούν στην ανάκτηση της πρωτοπορίας τους αντί στην ασφάλεια» αναφέρει ο Μπέντζιο.

Η OpenAI, η εταιρεία που ανέπτυξε το ChatGPT έκανε γνωστό μετά την εμφάνιση του chatbot της DeepSeek ότι θα επιταχύνει την κυκλοφορία των μοντέλων της ΑΙ. «Αν φανταστείτε έναν ανταγωνισμό μεταξύ δύο οντοτήτων και ένας πιστεύει ότι είναι πολύ μπροστά, τότε μπορούν να αντέξουν οικονομικά να είναι πιο συνετοί. Ενώ αν υπάρχει ένα; ανταγωνισμό μεταξύ δύο οντοτήτων που πιστεύουν ότι είναι στο ίδιο επίπεδο τότε πρέπει να επιταχύνουν και ίσως δεν δίνουν τόση σημασία στην ασφάλεια» λέει ο Μπέντζιο.

Οι απειλές

Η έκθεση αναφέρει ότι από τη δημοσίευση μιας ενδιάμεσης μελέτης τον Μάιο του 2024 τα συστήματα τεχνητής νοημοσύνης γενικής χρήσης όπως τα chatbots, έχουν γίνει πιο ικανά σε «τομείς που σχετίζονται με κακόβουλη χρήση», όπως η χρήση αυτοματοποιημένων εργαλείων για την επισήμανση τρωτών σημείων στο λογισμικό και συστήματα πληροφορικής, και παροχή καθοδήγησης για την παραγωγή βιολογικών και χημικών όπλων.

Η έκθεση αναφέρει ότι τα νέα μοντέλα τεχνητής νοημοσύνης μπορούν να παράγουν βήμα-βήμα τεχνικές οδηγίες για τη δημιουργία παθογόνων και τοξινών που ξεπερνούν τις δυνατότητες των ειδικών με διδακτορικά. Η OpenAI έχει αναγνωρίσει ότι το προηγμένο μοντέλο της ο1 θα μπορούσε να βοηθήσει τους ειδικούς στο σχεδιασμό του τρόπου παραγωγής βιολογικών απειλών.
Ωστόσο η έκθεση αναφέρει ότι είναι αβέβαιο εάν οι αρχάριοι θα είναι σε θέση να ενεργήσουν σύμφωνα με την καθοδήγηση και ότι τα μοντέλα μπορούν επίσης να χρησιμοποιηθούν για ευεργετικούς σκοπούς, όπως στην ιατρική.

Μιλώντας στον Guardian, ο Μπέντζιο είπε ότι είχαν ήδη εμφανιστεί μοντέλα που θα μπορούσαν (θεωρητικά) με τη χρήση μίας κάμερας smartphone να καθοδηγήσουν τους ανθρώπους σε επικίνδυνες εργασίες, όπως η προσπάθεια κατασκευής ενός βιολογικού όπλου.
«Αυτά τα εργαλεία γίνονται όλο και πιο εύκολα στη χρήση από μη ειδικούς, επειδή μπορούν να αποσυνθέσουν μια περίπλοκη εργασία σε μικρότερα βήματα που μπορούν να κατανοήσουν όλοι και στη συνέχεια μπορούν να βοηθήσουν κάποιον διαδραστικά να τα πραγματοποιήσει. Και αυτό είναι πολύ διαφορετικό από τη χρήση, ας πούμε, της αναζήτησης της μηχανής αναζήτησης της Google» εξηγεί ο Μπέντζιο.

Η βελτίωση

Η έκθεση αναφέρει ότι τα συστήματα τεχνητής νοημοσύνης έχουν βελτιωθεί σημαντικά από πέρυσι στην ικανότητά τους να εντοπίζουν ελαττώματα στο λογισμικό αυτόνομα, χωρίς ανθρώπινη παρέμβαση. Αυτό θα μπορούσε να βοηθήσει τους χάκερ να σχεδιάσουν επιθέσεις στον κυβερνοχώρο.

Ωστόσο, η έκθεση αναφέρει ότι η αυτόνομη πραγματοποίηση επιθέσεων στον πραγματικό κόσμο είναι πέρα από τα συστήματα τεχνητής νοημοσύνης μέχρι στιγμής, επειδή απαιτούν «εξαιρετικό επίπεδο ακρίβειας».

Σε άλλο σημείο της ανάλυσής της για τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη, η έκθεση επισημαίνει μια σημαντική αύξηση του deepfake περιεχομένου, όπου η τεχνολογία χρησιμοποιείται για την παραγωγή μιας πειστικής ομοιότητας ενός ατόμου – είτε της εικόνας του, είτε της φωνής του είτε και των δύο. Λέει ότι τα deepfakes έχουν χρησιμοποιηθεί για να εξαπατήσουν εταιρείες να παραδώσουν χρήματα, να διαπράξουν εκβιασμό και να δημιουργήσουν πορνογραφικές εικόνες ανθρώπων. Αναφέρει επίσης ότι η μέτρηση του ακριβούς επιπέδου αύξησης μιας τέτοιας συμπεριφοράς είναι δύσκολη λόγω έλλειψης περιεκτικών και αξιόπιστων στατιστικών.

Naftemporiki.gr