Ανάλυση της γλώσσας του σώματος, φωνητικές αξιολογήσεις, σαρωτές βιογραφικού σημειώματος, είναι μερικά από τα εργαλεία που χρησιμοποιούν οι εταιρείες για τον έλεγχο των υποψηφίων με λογισμικό προσλήψεων τεχνητής νοημοσύνης. Οι υποψήφιοι για εργασία έρχονται αντιμέτωποι με αυτές τις μηχανικές προτροπές – και η τεχνητή νοημοσύνη αποφασίζει αν ταιριάζουν καλά ή αν υπολείπονται.
Οι επιχειρήσεις βασίζονται όλο και περισσότερο σε αυτά. Μια έρευνα της IBM στα τέλη του 2023 σε περισσότερους από 8.500 παγκόσμιους επαγγελματίες του τομέα της πληροφορικής έδειξε ότι το 42% των εταιρειών χρησιμοποιούν διαλογή με τεχνητή νοημοσύνη “για να βελτιώσουν την πρόσληψη προσωπικού και τους ανθρώπινους πόρους”. Ένα άλλο 40% των ερωτηθέντων εξέταζε το ενδεχόμενο ενσωμάτωσης της τεχνολογίας.
Πολλοί εργοδότες σε ολόκληρο τον εταιρικό κόσμο ήλπιζαν ότι η τεχνολογία πρόσληψης AI θα έθετε τέλος στις προκαταλήψεις στη διαδικασία πρόσληψης. Ωστόσο, σε ορισμένες περιπτώσεις, συμβαίνει το αντίθετο. Ορισμένοι ειδικοί λένε ότι αυτά τα εργαλεία διαλέγουν με ανακρίβεια ορισμένους από τους πιο κατάλληλους υποψήφιους για εργασία – και οι ανησυχίες αυξάνονται ότι το λογισμικό μπορεί να αποκλείει τους καλύτερους υποψηφίους.
“Δεν έχουμε δει πολλές αποδείξεις ότι δεν υπάρχει προκατάληψη εδώ… ή ότι το εργαλείο επιλέγει τους πιο κατάλληλους υποψηφίους”, λέει η Hilke Schellmann, συγγραφέας του Algorithm: How AI Can Hijack Your Career and Steal Your Future.
Η ίδια πιστεύει ότι ο μεγαλύτερος κίνδυνος που εγκυμονεί ένα τέτοιο λογισμικό για τις θέσεις εργασίας δεν είναι ότι οι μηχανές παίρνουν τις θέσεις των εργαζομένων, όπως συχνά φοβούνται – αλλά ότι μάλλον τους εμποδίζουν να πάρουν έναν ρόλο.
Ανείπωτη ζημιά
Ορισμένοι υποψήφιοι με προσόντα για εργασία έχουν ήδη βρεθεί σε αντιπαράθεση με αυτές τις πλατφόρμες πρόσληψης.
Σε μια πολύκροτη περίπτωση το 2020, η μακιγιέζ με έδρα το Ηνωμένο Βασίλειο Anthea Mairoudhiou δήλωσε ότι η εταιρεία της είπε να υποβάλει εκ νέου αίτηση για τον ρόλο της αφού είχε πάρει άδεια κατά τη διάρκεια της πανδημίας. Αξιολογήθηκε τόσο με βάση τις προηγούμενες επιδόσεις της όσο και μέσω ενός προγράμματος διαλογής με τεχνητή νοημοσύνη. Λέει ότι βαθμολογήθηκε καλά στην αξιολόγηση των δεξιοτήτων – αλλά αφού το εργαλείο τεχνητής νοημοσύνης βαθμολόγησε τη γλώσσα του σώματός της άσχημα, έμεινε οριστικά χωρίς δουλειά.
Άλλοι εργαζόμενοι έχουν υποβάλει καταγγελίες κατά διάφορων πλατφορμών, λέει ο Schellmann.
Προσθέτει ότι οι υποψήφιοι για εργασία σπάνια γνωρίζουν αν αυτά τα εργαλεία είναι ο μοναδικός λόγος που οι εταιρείες τους απορρίπτουν – σε γενικές γραμμές, το λογισμικό δεν ενημερώνει τους χρήστες για το πώς έχουν αξιολογηθεί. Ωστόσο, λέει ότι υπάρχουν πολλά κραυγαλέα παραδείγματα συστημικών ατελειών.
Οι περιθωριοποιημένες ομάδες συχνά “πέφτουν μέσα από τις ρωγμές, επειδή έχουν διαφορετικά χόμπι, πήγαν σε διαφορετικά σχολεία”, λέει ο Schellmann.
Σε ορισμένες περιπτώσεις, τα μεροληπτικά κριτήρια επιλογής είναι σαφή – όπως ο ηλικία ή ο σεξισμός – αλλά σε άλλες, είναι αδιαφανή. Στο πλαίσιο της έρευνάς της, η Schellmann υπέβαλε αίτηση για μια θέση εργασίας σε τηλεφωνικό κέντρο, για να ελεγχθεί από την τεχνητή νοημοσύνη. Στη συνέχεια, συνδέθηκε από την πλευρά του εργοδότη. Είχε λάβει υψηλή βαθμολογία στη συνέντευξη, παρά το γεγονός ότι έλεγε ανοησίες στα γερμανικά, ενώ υποτίθεται ότι μιλούσε αγγλικά, αλλά έλαβε κακή βαθμολογία για τα πραγματικά σχετικά διαπιστευτήριά της στο προφίλ της στο LinkedIn.
Ανησυχεί ότι οι αρνητικές επιπτώσεις θα εξαπλωθούν καθώς η τεχνολογία εξαπλώνεται.
Πηγή: BBC