Η φράση της χρονιάς για το 2023: Τεχνητή Νοημοσύνη (ΑΙ). Πολλά τα ορόσημα, όπως η παρουσίαση νέων μοντέλων και η συμφωνία- ορόσημο της Ε.Ε. για μια πρωτοφανή σε παγκόσμιο επίπεδο νομοθεσία, που καθιστά την Ευρώπη την πρώτη ήπειρο που ορίζει σαφείς κανόνες.
Αδιαφιλονίκητοι πρωταγωνιστές οι μετοχές των τεχνολογικών κολοσσών, με κέρδη φέτος που ξεπερνούν το 220% για τη Nvidia και το 55% για τη Microsoft, σύροντας τον χορό του ράλι 45% για τον Nasdaq, καθώς η ΑΙ αναδεικνύεται στο βασικό όχημα που θα μεταμορφώσει την τεχνολογία από την εποχή του Διαδικτύου το 1995 και θα φέρει στη Wall Street κέρδη 340 δισ. δολαρίων τους επόμενους μήνες. Ωστόσο, πίσω από αυτή την «επανάσταση» κρύβεται ένα σκοτεινό παρασκήνιο, με επίκεντρο την OpenAI και τον διευθύνοντα σύμβουλό της, που αποπέμφθηκε για να επιστρέψει λίγες ημέρες αργότερα, και με τη Microsoft να αναδεικνύεται σε πανίσχυρο παίκτη, προκαλώντας τις ανησυχίες των ρυθμιστικών αρχών της Βρετανίας. Πολλά τα ερωτήματα, λίγες οι απαντήσεις, εν μέσω αντικρουόμενων απόψεων για το πόσο τα σημερινά συστήματα AI απέχουν από ικανότητες πέρα από την απλή σύνοψη κειμένου με δημιουργικούς τρόπους, από κάποια εμφάνιση συναισθήματος και εν κατακλείδι από το να κερδίσουν τους ανθρώπους σε πλήθος διανοητικών εργασιών.
Γλωσσικά μοντέλα
Από την κυκλοφορία του προ- γράμματος GPT-3 τον Ιούνιο του 2020 και μετά έχουν δημιουργηθεί μεγάλα γλωσσικά μοντέλα από αμερικανικές εταιρείες, όπως την OpenAI που έχει δημιουργήσει τα μοντέλα GPT-3, ChatGPT και GPT-4, την Google που έχει δημιουργήσει το μοντέλο Bard και μόλις πρόσφατα το Gemini, και τη Meta με το μοντέλο Galactica. Η Google ισχυρίζεται ότι το νέο μοντέλο Τεχνητής Νοημοσύνης της Gemini ξεπερνά το ChatGPT στις περισσότερες δοκιμασίες και εμφανίζει «προηγμένη συλλογιστική» σε πολλαπλές μορφές. Το Gemini, το οποίο θα ενσωματωθεί σε προϊόντα της Google, συμπεριλαμβανομένης της μηχανής αναζήτησης, κυκλοφόρησε από τις 6 Δεκεμβρίου σε περισσότερες από 170 χώρες, με τη μορφή αναβάθμισης του chatbot της Google, Bard, εξαιρουμένης της Βρετανίας και της Ευρώπης, καθώς ο αμερικανικός κολοσσός δεν έχει εξασφαλίσει ακόμη την έγκριση των ρυθμιστικών αρχών.
Η φράση «τεχνητή νοημοσύνη» χρησιμοποιήθηκε για πρώτη φορά στη δεκαετία του 1950, παρόλο που η ιδέα των σκεπτόμενων μηχανών είναι παλαιά, προϋπήρχε στη μυθολογία και τους θρύλους με ευφυή ρομπότ και τεχνητές οντότητες. Η δημιουργία του συλλογισμού και η εφαρμογή του επαγωγικού συλλογισμού από τον Αριστοτέλη αποτέλεσε ένα ορόσημο στην αναζήτηση της ανθρωπότητας να κατανοήσει τη δική της νοημοσύνη. Ωστόσο, παρά τις μακριές και βαθιές ρίζες της, η Τεχνητή Νοημοσύνη, όπως την ξέρουμε σήμερα, υφίσταται εδώ και λιγότερο από έναν αιώνα.
Επιστήμη υπολογιστών
Η Τεχνητή Νοημοσύνη είναι ένα πεδίο στην επιστήμη των υπολογιστών που σχετίζεται με την κατασκευή μηχανών, οι οποίες μπορούν να προσομοιώσουν την ανθρώπινη νοημοσύνη. Ένα μοντέλο AI είναι ένα εργαλείο ή αλγόριθμος, που βασίζεται σε συγκεκριμένο σύνολο δεδομένων, μέσω του οποίου μπορεί να καταλήξει σε μια απόφαση, χωρίς να καθίσταται αναγκαία η ανθρώπινη παρέμβαση στη διαδικασία λήψης αποφάσεων. Αυτό το σύνολο δεδομένων του επιτρέπουν να αναγνωρίζει ορισμένα μοτίβα και έτσι να μπορεί να καταλήξει σε ένα συμπέρασμα ή να κάνει μια πρόβλεψη όταν του παρέχονται επαρκείς πληροφορίες από έναν τεράστιο όγκο δεδομένων.
Ως εκ τούτου, τα μοντέλα ΑΙ παρέχουν υψηλότερη απόδοση, εξοικονόμηση κόστους και ακρίβεια, ενώ είναι ιδιαιτέρως κατάλληλα για την επίλυση σύνθετων προβλημάτων, από τα αυτοοδηγούμενα αυτοκίνητα, η ανίχνευση αντικειμένων, η αναγνώριση προσώπου μέχρι και η ανάλυση της στάσης σώματος. Μπορούν επίσης να λειτουργήσουν ως game changer σε τομείς όπως υγειονομική περίθαλψη, τράπεζες, μεταφορές και στην αγορά εργασίας με την αυτοματοποίηση, ενώ οι αλγόριθμοι μηχανικής μάθησης που έχουν εκπαιδευτεί σε τεράστια σύνολα δεδομένων παρέχουν ένα ισχυρό εργαλείο για την προώθηση της επιστημονικής έρευνας.
Ποιες είναι ωστόσο οι επιπτώσεις; Και τι επιφυλάσσει το μέλλον; Θα περιβληθούμε σύντομα από τεχνητά νοήμονα ρομπότ που είναι ικανά να σκέφτονται -και να ενεργούν- όπως οι άνθρωποι;
Επιστήμονες αναφέρουν ότι αυτό που σήμερα φαίνεται τρομακτικό, σε λίγα χρόνια θα ομαλοποιηθεί – «θα είναι τόσο πανταχού παρών όσο το Photoshop».
Κίνδυνοι και «πράσινα» ζητήματα
Ένα γλωσσικό μοντέλο μπορεί να παράγει κείμενο το οποίο περιέχει αναλήθειες και ανακρίβειες, που δεν στηρίζονται στα δεδομένα στα οποία έχει εκπαιδευτεί. Αυτό συνέβη με το μεγάλο γλωσσικό μοντέλο Galactica της Meta. Ενώ ο σκοπός του ήταν να βοηθήσει τους επιστήμονες στην εργασία τους και γι’ αυτό είχε εκπαιδευτεί σε μεγάλο αριθμό επιστημονικών άρθρων, βιβλίων, ιστοσελίδων κ.λπ., οι χρήστες γρήγορα διαπίστωσαν ότι ήταν ικανό να παράγει ανακριβείς «επιστημονικές» πληροφορίες και έτσι αποσύρθηκε από την κυκλοφορία. Θα μπορούσε ένας κακόβουλος χρήστης να χρησιμοποιήσει το ChatGPT για να κατασκευάσει μια αληθοφανή ιστορία σχετικά με ένα δημόσιο πρόσωπο και μετά να τη δημοσιεύσει στο Διαδίκτυο; Θα μπορούσε κάποιος χάκερ να υποκλέψει διαλόγους άλλων χρηστών ή να παράγει κείμενα που δεν είναι ασφαλή ή περιέχουν ρατσιστικά και σεξιστικά σχόλια; Θα μπορούσαν μεγάλα γλωσσικά μοντέλα όπως το ChatGPT να αντικαταστήσουν κάποιες κατηγορίες εργαζομένων; Σέβεται την ιδιωτικότητα των χρηστών; Οι απαντήσεις δεν είναι εύκολο να δοθούν. Σίγουρα, η ΑΙ έχει κάνει μεγάλα βήματα τα τελευταία χρόνια, όμως εκτιμάται ότι είμαστε ακόμα μακριά από το να δούμε συστήματα Τεχνητής Νοημοσύνης να αντικαθιστούν τους ανθρώπους σε διάφορα επαγγέλματα έντασης γνώσης.
Η ανάπτυξη και η χρήση τους εγείρει δε και μια σειρά από ηθικά ζητήματα.
Η εκπαίδευση αυτών των μοντέλων προϋποθέτει τεράστια υπολογιστική ισχύ και, κατά συνέπεια, την κατανάλωση μεγάλου ποσού ηλεκτρικής ενέργειας και την έκλυση μεγάλου ποσού διοξειδίου του άνθρακα στην ατμόσφαιρα εάν η ενέργεια που χρησιμοποιείται δεν είναι πράσινη.