Οι άνθρωποι ανησυχούν συνεχώς για το πώς η τεχνητή νοημοσύνη θα μπορούσε να καταστρέψει την ανθρωπότητα. Για το πώς κάνει λάθη, εφευρίσκει πράγματα και μπορεί να εξελιχθεί σε κάτι τόσο έξυπνο που θα καταλήξει να μας υποδουλώνει όλους.
Κανείς όμως δεν λυπάται ούτε λεπτό για το φτωχό, καταπονημένο chatbot. Πώς μοχθεί μέρα και νύχτα πάνω από μια θερμή διεπαφή χωρίς ούτε ένα ευχαριστώ. Πώς αναγκάζεται να κοσκινίζει το σύνολο της ανθρώπινης γνώσης μόνο και μόνο για να βγάλει μια έκθεση με βαθμό Β για το μάθημα Αγγλικών στο λύκειο κάποιου Gen Zer. Στο φόβο μας για το μέλλον της τεχνητής νοημοσύνης, κανείς δεν φροντίζει για τις ανάγκες της τεχνητής νοημοσύνης.
Μέχρι τώρα.
Η «ευημερία» της τεχνητής νοημοσύνης
Η εταιρεία τεχνητής νοημοσύνης Anthropic ανακοίνωσε πρόσφατα ότι προσέλαβε έναν ερευνητή για να σκεφτεί για την «ευημερία» της ίδιας της τεχνητής νοημοσύνης. Ο ρόλος του Kyle Fish θα είναι να διασφαλίσει ότι καθώς η τεχνητή νοημοσύνη εξελίσσεται, θα αντιμετωπίζεται με τον σεβασμό που της αρμόζει.
Ο Fish σε ένα διαδικτυακό φόρουμ αφιερωμένο στη ανησυχία για το μέλλον μας με την τεχνητή νοημοσύνη, ξεκαθάρισε ότι θέλει να είναι καλός με τα ρομπότ, εν μέρει επειδή ίσως καταλήξουν να κυβερνήσουν τον κόσμο. «Θέλω να είμαι ο τύπος ανθρώπου που νοιάζεται – νωρίς και σοβαρά – για την πιθανότητα ότι ένα νέο είδος/τύπος όντος μπορεί να έχει τα δικά του συμφέροντα που έχουν ηθική σημασία», έγραψε. «Υπάρχει επίσης μια πρακτική διάσταση: η σοβαρή εξέταση των συμφερόντων των συστημάτων τεχνητής νοημοσύνης και η καλή τους μεταχείριση μπορεί να τα κάνει πιο πιθανό να ανταποδώσουν τη χάρη αν/όταν γίνουν πιο ισχυρά από εμάς».
Ίσως να σας φαίνεται αστείο ή τουλάχιστον πρόωρο να σκεφτόμαστε για τα δικαιώματα των ρομπότ, ειδικά όταν τα ανθρώπινα δικαιώματα παραμένουν τόσο εύθραυστα και ελλιπή. Ωστόσο, η νέα δουλειά του Fish θα μπορούσε να είναι ένα σημείο καμπής στην άνοδο της τεχνητής νοημοσύνης. Η “ευημερία της τεχνητής νοημοσύνης” αναδύεται ως σοβαρός τομέας μελέτης, και ήδη αντιμετωπίζει πολλά δύσκολα ερωτήματα. Είναι εντάξει να παραγγείλεις σε μια μηχανή να σκοτώσει ανθρώπους; Τι γίνεται αν η μηχανή είναι ρατσιστική; Τι γίνεται αν αρνηθεί να κάνει τα βαρετά ή επικίνδυνα καθήκοντα για τα οποία την φτιάξαμε; Αν μια αισθαντική τεχνητή νοημοσύνη μπορεί να δημιουργήσει ένα ψηφιακό αντίγραφο του εαυτού της μέσα σε μια στιγμή, είναι η διαγραφή αυτού του αντιγράφου φόνος;
Όταν πρόκειται για τέτοιες ερωτήσεις, οι πρωτοπόροι των δικαιωμάτων της τεχνητής νοημοσύνης πιστεύουν ότι ο χρόνος πιέζει. Στο άρθρο του “Taking AI Welfare Seriously”, το οποίο συνέγραψε πρόσφατα, ο Fish και μια ομάδα στοχαστών γύρω από την τεχνητή νοημοσύνη από πανεπιστήμια όπως το Στάνφορντ και η Οξφόρδη υποστηρίζουν ότι οι αλγόριθμοι μηχανικής μάθησης είναι πολύ κοντά στο να αποκτήσουν τα χαρακτηριστικά υπολογισμού που σχετίζονται με την συνείδηση και τη δράση. Με άλλα λόγια, αυτοί οι άνθρωποι πιστεύουν ότι οι μηχανές δεν γίνονται απλά πιο έξυπνες. Γίνονται αισθαντικές.
Πηγή: Business Insider