Παρασκευή
22
Νοέμβριος
TOP

Η ΑΙ μπορεί να κρύβεται πίσω από την απόρριψη σε δουλειά- Πώς να το καταλάβετε και να το διορθώσετε

Το 2015, πολύ πριν γίνει γνωστό το ChatGPT, η τεχνητή νοημοσύνη είχε ήδη επηρεάσει σε μεγάλο βαθμό τα άτομα που αναζητούσαν εργασία.

Εκείνη τη χρονιά, η Amazon συνειδητοποίησε ότι οι αλγόριθμοι της μηχανικής μάθησης, που είχαν σκοπό να επιταχύνουν τη διαδικασία πρόσληψης, ήταν προκατειλημμένοι κατά των γυναικών. Συγκεκριμένα, κατά λάθος διέγραψαν βιογραφικά με τη λέξη «γυναικεία» — για παράδειγμα, εάν μια υποψήφια είχε συμμετάσχει σε «γυναικείο σκακιστικό κλαμπ», σύμφωνα με δημοσίευμα του Reuters.

Οι αλγόριθμοι εκπαιδεύτηκαν για να αναζητούν υποψηφίους με χαρακτηριστικά παρόμοια με αυτών που είχε προσλάβει προηγουμένως η Amazon, αναπαράγοντας προϋπάρχουσες ανισότητες μεταξύ των φύλων. Αντίστοιχες περιπτώσεις διάκρισης πρόσληψης με χρήση τεχνητής νοημοσύνης αφθονούν, τόσο πολύ που η Επιτροπή Ίσων Ευκαιριών Απασχόλησης των ΗΠΑ, προσφέρει καθοδήγηση στους εργοδότες ώστε να διασφαλίσουν ότι η AI δεν θέτει σε κίνδυνο τις διαδικασίες πρόσληψης αναπαράγοντας μεροληπτικές ιδέες και στερεότυπα.

«Το μάθημα της υπόθεσης της Amazon είναι ότι δεν μπορείς απλώς να αναθέτεις την πρόσληψη στην τεχνητή νοημοσύνη και να πιστεύεις ότι όλα είναι εντάξει», λέει στο CNBC ο Ifeoma Ajunwa, καθηγητής νομικής στο Πανεπιστήμιο της Βόρειας Καρολίνας.

Η μεροληψία προσλήψεων δεν είναι νέο φαινόμενο: Ορισμένες ομάδες αγνοούνται αδικαιολόγητα εδώ και πολύ καιρό, αλλά η τεχνητή νοημοσύνη αναπαράγει αυτή τη διάκριση «σε κλίμακα», προσθέτει ο Ajunwa.

Οι νομοθέτες σε ορισμένες περιοχές – όπως η πόλη της Νέας Υόρκης – δημιουργούν πολιτικές για να ρυθμίσουν τα «τυφλά σημεία» της τεχνολογίας. Αλλά «η τεχνολογία είναι πάντα πολύ πιο μπροστά από τους νομοθέτες», λέει η Lindsay Greene, δικηγόρος εργατικού δικαίου.

Ακολουθούν ορισμένα λάθη που μπορεί να κάνει η AI και τι μπορείτε να κάνετε για να τα αντιμετωπίσετε.

Γιατί η τεχνητή νοημοσύνη μπορεί να επιδεινώσει τις διακρίσεις στις προσλήψεις

Η AI είναι τόσο αμερόληπτη όσο οι άνθρωποι που τη προγραμμάτισαν. Υπάρχουν πολλά σημεία στη διαδικασία πρόσληψης όπου οι κωδικοποιημένες προκαταλήψεις στην τεχνητή νοημοσύνη θα μπορούσαν να επηρεάσουν τις πιθανότητες ενός υποψηφίου να εξασφαλίσει τη θέση εργασίας. Μερικά από αυτά είναι:

  • Όταν η τεχνητή νοημοσύνη παρεξηγεί τα χρονικά κενά ενός βιογραφικού. Τα φίλτρα AI μπορεί λανθασμένα να αποκλείουν υποψηφίους με κενά στα βιογραφικά τους, λέει ο Ajunwa. Είναι λιγότερο πιθανό να αποκλείουν αυτόματα τα γεμάτα βιογραφικά, ακόμα κι αν αυτό σημαίνει ότι παρέχουν μια σύντομη εξήγηση για το διάστημα χωρίς εργασία.
  • Όταν η ΑΙ δεν είναι προγραμματισμένη για όλα τα πρόσωπα. Η τεχνητή νοημοσύνη δεν είναι πάντα αρκετά έξυπνη για να καταλάβει κάθε πρόσωπο σε μία φωτογραφία. Για παράδειγμα, το πιο σκούρο δέρμα δεν ερμηνεύεται πάντα σωστά από την AI, λέει ο Ajunwa.
  • Κατά τη σάρωση των μέσων κοινωνικής δικτύωσης. Οι εργοδότες χρησιμοποιούν αυτοματοποιημένη τεχνολογία για να σαρώσουν το διαδίκτυο και να δουν τα social media ενός υποψηφίου, σημειώνει η Greene.

Υπάρχει μόνο μια ασφαλής δικλείδα ασφαλείας για να μην αντιμετωπίσετε επαγγελματικές συνέπειες για τη δραστηριότητά σας στα μέσα κοινωνικής δικτύωσης: Διατηρήστε ιδιωτικούς τους προσωπικούς σας λογαριασμούς και αφαιρέστε οποιοδήποτε περιεχόμενο που μπορεί να δώσει σε έναν υπεύθυνο προσλήψεων τη λανθασμένη εντύπωση.

Πώς να διορθώσετε τα λάθη της AI

Εάν υποψιάζεστε ότι η τεχνητή νοημοσύνη είχε κάποια σχέση με μια μεροληπτική απόρριψη εργασίας, επικοινωνήστε απευθείας με την εταιρεία, λένε οι ειδικοί.

Πολλές εταιρείες προμηθεύονται τα φίλτρα πρόσληψης AI από τρίτους και μπορεί να μην καταλαβαίνουν πάντα πώς ακριβώς λειτουργεί η τεχνολογία. «Συχνά οι εργοδότες δεν γνωρίζουν καν τι κάνει το σύστημα AI», λέει ο Ajunwa.

Το να μην έχετε απάντηση από μία εταιρεία, δεν σημαίνει απαραίτητα απόρριψη. Εάν δεν έχετε νέα επειδή πιστεύετε ότι δεν έχετε επιλεγεί, λανθασμένα, στείλτε ένα email σχετικά με αυτό, σε έναν υπεύθυνο προσλήψεων, με συνημμένο το βιογραφικό σας, συμβουλεύει ο Ajunwa.

πηγη moneyreview.gr