Οι μεγάλες εταιρίες επενδύουν διαρκώς σε τεχνολογίες που βασίζονται στην τεχνητή νοημοσύνη και οι εργαζόμενοι προσαρμόζουν τα εργαλεία που χρησιμοποιούν.
Την επόμενη φορά που ένας υποψήφιος εργαζόμενος κληθεί σε συνέντευξη για δουλειά, είναι πολύ πιθανό να βρεθεί μόνος του μπροστά σε μια οθόνη απαντώντας σε αυτοματοποιημένες ερωτήσεις ενός αλγόριθμου. Οι μεγάλες εταιρίες επενδύουν διαρκώς σε τεχνολογίες που βασίζονται στην τεχνητή νοημοσύνη και οι εργαζόμενοι προσαρμόζουν τα εργαλεία που χρησιμοποιούν, ενώ ο κίνδυνος αναπαραγωγής στερεοτύπων και προκαταλήψεων είναι αρκετά μεγάλος.
Κατά τη διάρκεια της πανδημίας, καθιερώθηκε σε μεγάλο βαθμό η τηλεργασία και ενσωματώθηκαν νέα ψηφιακά εργαλεία στην εργασιακή καθημερινότητα. Οι συνεντεύξεις που καθοδηγούνται από την τεχνητή νοημοσύνη (AI) εφαρμόζονται ήδη από μεγάλες εταιρίες για την επιλογή εργαζομένων. Μία πρόσφατη έρευνα από το Resume Builder διαπίστωσε ότι τέσσερις στις δέκα εταιρείες θα αξιοποιούν σύντομα την τεχνητή νοημοσύνη για να «συνομιλούν» με τους εργαζόμενους στις συνεντεύξεις. Από αυτές, το 15% επισήμανε ότι οι αποφάσεις πρόσληψης θα λαμβάνονται χωρίς καμία ανθρώπινη συμβολή. Αρκετοί εργοδότες ήδη χρησιμοποιούν την τεχνητή νοημοσύνη για να διατυπώνουν περιγραφές θέσεων εργασίας ή για να αναζητούν πληροφορίες με τους λόγους για τους οποίους πρέπει ή δεν πρέπει να προσλάβουν έναν υποψήφιο κατά τη διάρκεια της τελικής επιλογής.
Στο διαδίκτυο υπάρχουν αρκετά άρθρα τα οποία λειτουργούν ως «οδηγοί» για να προετοιμάσουν τους υποψήφιους οι οποίοι έχουν κληθεί να περάσουν από συνεντεύξεις με αυτόν τον τρόπο. Τα άρθρα προειδοποιούν τους εργαζόμενους ότι οι συγκεκριμένες τεχνολογίες δεν είναι ουδέτερες και αμερόληπτες και τους συμβουλεύουν – όσο και αν φαίνεται δύσκολο – να εξασκηθούν στο να φαίνονται ανθρώπινοι, ακόμη και όταν αισθάνονται αμηχανία. Παρ’ όλα αυτά, αρκετά άτομα που πέρασαν από αυτή τη διαδικασία επιβεβαίωσαν ότι τελικά ένιωσαν «σαν να έχουν γίνει και οι ίδιοι ρομπότ», καθώς προσάρμοσαν με αφύσικο τρόπο τη συμπεριφορά τους προκειμένου να κάνουν καλή εντύπωση στον αλγόριθμο.
Πώς αισθάνονται οι εργαζόμενοι και τι συμβουλές βρίσκει κανείς στο Tik Tok;
Αυτή η εξέλιξη μετασχηματίζει την εμπειρία των ατόμων που αναζητούν εργασία, ειδικά από τις νέες γενιές. Οι εργαζόμενοι αξιοποιούν επίσης από την πλευρά τους εργαλεία που προσφέρει η τεχνητή νοημοσύνη επιδιώκοντας ταχύτερη και αποτελεσματικότερη επεξεργασία πληροφοριών για να προσαρμόσουν το βιογραφικό τους, να γράψουν συνοδευτικές επιστολές, ακόμη και για να κάνουν αυτόματες αιτήσεις για θέσεις εργασίας. Στο TikTok δημιουργήθηκαν σχετικά βίντεο με τρόπους που θα μπορούσαν να χρησιμοποιηθούν από τους υποψήφιους για να «ξεγελάσουν» τον αλγόριθμο και να τοποθετηθεί το βιογραφικό τους στις πρώτες θέσεις επιλογής.
Μία εργαζόμενη που πέρασε από τη διαδικασία της συνέντευξης μέσω ΑΙ δήλωσε στην εφημερίδα Guardian σε σχετικό ρεπορτάζ για τις αλλαγές στην αγορά εργασίας: «Δεν μπορούσα να ερμηνεύσω τις εκφράσεις κανενός ανθρώπου, να διαβάσω τη γλώσσα του σώματος ή να δω κάποιον να μου γνέφει θετικά. Αυτή η ανεπαίσθητη ανθρώπινη επιβεβαίωση που λαμβάνει κανείς σε μια πραγματική συνέντευξη χάνεται εντελώς όταν οι εταιρείες αναθέτουν τις συνεντεύξεις σε απρόσωπα συστήματα», είπε, ενώ μία άλλη νέα εργαζόμενη πρόσθεσε: «Όταν μπήκα στην κλήση και βρέθηκα σε ένα διαδικτυακό δωμάτιο συνομιλίας μόνο με τον εαυτό μου, ειλικρινά αισθάνθηκα τεράστια έκπληξη και απορία».
Στις αυτοματοποιημένες συνεντεύξεις οι υποψήφιοι δέχονται προκαθορισμένες ερωτήσεις και έχουν ελάχιστο χρόνο στη διάθεση τους για να απαντήσουν. Αυτό εντείνει τα συναισθήματα άγχους και αμηχανίας καθώς πρόκειται για μία συνθήκη εντελώς πρωτόγνωρη και από – ανθρωποποιημένη.

Προκλήσεις, προκαταλήψεις και στερεότυπα
Η νέα εργασιακή πραγματικότητα αναδύει αναπόφευκτα ερωτήματα σε σχέση με τη διαφάνεια και την ηθική διάσταση των συγκεκριμένων διαδικασιών. Οι συνεντεύξεις στις οποίες γίνεται χρήση τεχνολογιών τεχνητής νοημοσύνης χρησιμοποιούν τα δεδομένα που συλλέγουν για να δημιουργήσουν αυτοματοποιημένες προβλέψεις σχετικά με το αν ο συνεντευξιαζόμενος είναι το «κατάλληλο» άτομο για κάποια θέση εργασίας, αλλά και για το ποια άτομα μπορεί να είναι οι επικρατέστεροι υποψήφιοι. Ο αλγόριθμος είναι πιθανό να συνθέσει δεδομένα από προηγούμενες προσλήψεις και τις επακόλουθες επιδόσεις τους στην εργασία ή να «προβλέψει» ανθρώπινα χαρακτηριστικά που συσχετίζονται με συγκεκριμένες επιδόσεις.
Οι επιστήμονες υποστηρίζουν ότι οι αλγόριθμοι δεν είναι σε καμία περίπτωση αλάνθαστοι στον τρόπο που χρησιμοποιούνται για να «αξιολογήσουν» ανθρώπινες συμπεριφορές και αλληλεπιδράσεις. Για παράδειγμα, υπάρχει προκατάληψη όταν ένα σύστημα τεχνητής νοημοσύνης χρησιμοποιεί το ανδρικό φύλο ως θετικό παράγοντα αξιολόγησης στο πλαίσιο των κριτηρίων κατά την πλήρωση μιας θέσης στον τομέα της τεχνολογίας ή της έρευνας, επειδή συγκρίνει τους υποψήφιους με εργατικό δυναμικό στο οποίο η πλειοψηφία είναι συνήθως άνδρες.
Η Γεωργία Κούτρικα, διευθύντρια Ερευνών του Ινστιτούτου Πληροφοριακών Συστημάτων του Ερευνητικού Κέντρου «Αθηνά» μου έχει πει σε πρόσφατη συνέντευξη στο Utopia Zone όταν τη ρώτησα για αυτό το θέμα: «Φυσικά και μπορεί να υπάρξουν διακρίσεις. Το 2015 αποκαλύφθηκε ότι ο αλγόριθμος προσλήψεων στην Amazon ήταν προκατειλημμένος απέναντι στις γυναίκες, ενώ σε νοσοκομεία των ΗΠΑ ο αλγόριθμος για την περίθαλψη έδινε περισσότερα προνόμια στους λευκούς ασθενείς. Είναι σημαντικό η AI να μην ανατροφοδοτεί αυτά τα στερεότυπα, γιατί μιλάμε για συστήματα που μπορούν να επηρεάσουν αποφάσεις μεγάλης κλίμακας. Η AI δεν είναι αλάθητη και σίγουρα δεν διαθέτει κοινωνική ενσυναίσθηση».
Επομένως, δεν είναι ασυνήθιστο ο σχεδιασμός αλγορίθμων να ενισχύει προκαταλήψεις στις αποφάσεις πρόσληψης ή προαγωγής οι οποίες είναι ήδη παρούσες στην κοινωνική ζωή. Αυτό εγείρει ερωτήματα για το πώς μπορούν να αντιμετωπιστούν (ακόμη και νομικά) οι αλγοριθμικές διακρίσεις από συστήματα ΤΝ που δρουν αυτόνομα. Καθώς οι αποφάσεις πρόσληψης μετατοπίζονται από τους παραδοσιακούς τρόπους αξιολόγησης και πλέον κινούνται στη βάση πληροφοριών που συλλέγονται από την τεχνολογία, υπάρχει ο κίνδυνος οι υποψήφιοι να φιλτράρονται με κριτήρια φύλου, φυλής, κοινωνικής τάξης κ.ά. Όταν οι αξιολογήσεις υπερεκτιμούν ή υποεκτιμούν συστηματικά τα αποτελέσματα μιας συγκεκριμένης ομάδας, παράγουν μεροληψία η οποία ευνοεί συνήθως τους πιο προνομιούχους.
Για τον μετριασμό αυτού του προβλήματος οι επιστήμονες συνιστούν την εφαρμογή τεχνικών μέτρων (όπως τα λιγότερο μεροληπτικά πλαίσια συνόλων δεδομένων), αλλά και διαχειριστικών πρακτικών όπως η διαμόρφωση εταιρικής δεοντολογίας και η ύπαρξη θεσμικής εποπτείας. Όπως κάθε ζήτημα που σχετίζεται με την τεχνολογία, αν δεν αντιμετωπιστεί αποτελεσματικά και με κοινωνικά κριτήρια, είναι πιθανό αντί να βελτιώσει την καθημερινότητα να διαιωνίσει αδικίες και διακρίσεις.