intelligenza artificiale etica

Sentire parlare di Intelligenza Artificiale nel recruitment è sempre più frequente. A dispetto, infatti, di quanto avvenisse in passato, oggi l’AI sta entrando a pieno titolo nel mondo del lavoro e in particolare in quella parte che si occupa di Talent Acquisition e recruiting.

Come sappiamo, affidarsi a un’intelligenza che non sia solo umana, ma artificiale, per l’appunto, permette a chi fa ricerca e selezione, di velocizzare molti passaggi, di riuscire a trovare subito le persone giuste con poco sforzo e, allo stesso tempo, permette delegare alla tecnologia attività noiose, sebbene necessarie, e automatizzarle.

Gli aspetti positivi apparentemente sono sotto gli occhi di molti recruiter, ma resta sempre un punto interrogativo neanche tanto latente: puntare sull’Intelligenza Artificiale vuol dire abbandonare l’etica? Affidarsi a una macchina vuol dire mettere da parte gli essere umani?

È quanto cerchiamo di capire provando a fare luce su un dubbio che attanaglia molti- se si possa parlare di Intelligenza Artificiale etica – per poi analizzare quali sono i rischi e le sfide che le aziende che adottano l’AI in ambito HR devono affrontare.

Si può parlare di intelligenza artificiale etica?

Secondo una ricerca condotta dal fornitore di software Tribe Pad e riportata da Ukrecuiter, c’è una certa diffidenza nei confronti dell’AI, in particolare da parte dei candidati. Il 42% dei partecipanti al sondaggio teme che la tecnologia possa controllare le persone in modo errato.

Da qui – e non solo – nasce la domanda: si può parlare di Intelligenza Artificiale etica? La risposta immediata potrebbe essere “Sì… ma dipende”. Da cosa? Da come essa viene utilizzata.

L’aggettivo “etico” infatti prevede il rispetto di alcuni principi che mettano davvero le persone al primo posto.

Un sistema di AI etico è un sistema che dà la priorità alla sicurezza delle persone e ai loro bisogni, tiene conto della loro personalità, rispetta la privacy, i diritti dei candidati e cerca di non essere discriminante in nessun modo.

Quando l’AI rispetta queste regole di base si può dire che “lavora” in maniera etica. Anche perché, diversamente, le conseguenze possono essere tutt’altro che banali. 

Vediamo quali sono dunque i rischi e le sfide che le aziende devono affrontare con l’AI nel recruitment. 

Intelligenza Artificiale e etica: i rischi e le sfide in azienda

Se è chiaro cosa significa Intelligenza Artificiale etica, nella pratica, a quali aspetti un’azienda deve prestare particolare attenzione? Analizziamone alcuni in dettaglio.

Gestire i dati in sicurezza

Che alla gestione dei dati si dia sempre più importanza non è un mistero, specie da quando il GDPR è entrato nelle nostre vite. Ma non solo: la questione privacy è alla base di un approccio etico. Trattare dati sensibili può non solo essere rischioso, ma anche avere effetti sulla reputazione delle aziende stesse.

Ecco perché nell’utilizzare i dati, anche con l’AI, bisogna fare attenzione e garantire la stessa accortezza che potrebbe avere un essere umano.

Per fare in modo che accada, si potrebbe adottare un sistema di etica formale che garantisca il rispetto della privacy in ogni fase del recruitment che si svolge con l’Intelligenza Artificiale. Altro passo importante sarebbe realizzare dei test etici per capire come di fatto si comporta il sistema e in quali punti il suo “atteggiamento” è critico.

L’Intelligenza Artificiale si può addestrare in modo che possa apprendere dai propri errori e possa, così, prendere in futuro decisioni più eque.

Non basta solo decidere di adottare una tecnologia di Intelligenza Artificiale: va utilizzata e verificata.

Inoltre, è importante scegliere bene i partner e le tecnologie cui affidarsi: con INDA, la nostra soluzione di AI per il mondo HR, diamo molta importanza alla sicurezza nella gestione dei dati. E non solo.

Eliminare i bias cognitivi

Altro aspetto importante anche dal punto di vista etico, riguarda i bias cognitivi ossia quelle distorsioni della mente che, anche inconsciamente, possono influenzare un processo di recruiting.

I recruiter, in quanto esseri umani, possono essere soggetti a bias (ad esempio, sull’età o la provenienza) che possono condizionare le loro decisioni in fase di ricerca e selezione. Anche se in diversa misura, lo stesso si potrebbe dire dell’AI proprio perchè si tratta di una tecnologia sviluppata da esseri umani.

Per fare un esempio, ricordiamo il caso di Amazon che, nel 2018, scoprì che il suo software di Intelligenza Artificiale aveva un bias cognitivo nei confronti delle donne visto che escludeva tutte le candidate provenienti dai college femminili.

Evitare che questo accada è fondamentale per un’azienda. Come fare? Come ridurre la comparsa dei bias ed eliminarli? A differenza di quando un bias è il prodotto di una decisione inconscia o conscia di una persona, l’AI permette di analizzare cosa è successo e di migliorare la raccolta dati, di implementarli per ridurre l’interpretazione soggettiva ed essere il più oggettivi possibili. Come dicevamo, una tecnologia del genere può apprendere dai propri “errori” e si può chiedere agli algoritmi di considerare solo le variabili che garantiscano la migliore selezione possibile.

Collaborare con la tecnologia

Un’altra delle sfide, o forse la vera Sfida, è quella di riuscire a collaborare con la tecnologia.
Questo è possibile se si comprendono i diversi ruoli: quello del recruiter, come essere umano, e quello dell’AI in quanto tecnologia.

L’AI non nasce affatto per sostituire la persona umana, ma per affiancarla e supportarla nella fase di ricerca e pre-selezione.

Per fare qualche esempio: immagina che un recruiter stia portando avanti una selezione particolarmente complessa e che debba fare, in tempi molto ristretti, decine e decine di colloqui.
Cosa succede se riceve una candidatura da una persona che potrebbe essere adatta al ruolo? Un chatbot potrebbe ovviare all’assenza del recruiter, dando un feedback al candidato e, anziché lasciarlo in sospeso, far capire che il suo profilo verrà presto preso in considerazione.

Affidarsi a un assistente digitale non è solo un modo di accogliere una persona che, candidandosi, ha dato fiducia all’azienda, ma anche per far capire che quanto ha fatto è importante e come tale merita la giusta considerazione.

Questo non vale solo per il primo approccio, bensì per tutta la candidate experience. Quante volte le persone non si candidano per un annuncio perché hanno avuto delle difficoltà che non permettono loro di andare avanti? Con un assistente digitale si potrebbe evitare tutto questo. Il che, ovviamente, ha una ricaduta anche sulla Talent Attraction nonché sull’Employer branding. 

Il confine tra innovazione tecnologica e approccio umano

Quanto abbiamo appena detto ci porta a una riflessione finale: per quanto l’innovazione tecnologica sia importante e ogni azienda debba cercare di attivarsi non solo per sposarla, ma per adattarla al proprio contesto, bisogna ricordare che la tecnologia è solo uno strumento. Quello che conta e che conterà sempre è l’approccio umano.

Il team HR è insostituibile e nessuna macchina può interagire, capire e aiutare le persone come potrebbe fare un’altra persona. La tecnologia non si sostituisce alle persone, non le rimpiazza nel loro lavoro, bensì le supporta e può farlo perchè è sempre l’essere umano a seguirla e a garantire per essa.

Alla base, quindi, ci devono essere dei forti valori umani ma non solo: bisogna scegliere dei fornitori che abbiano a cuore l’etica umana e sappiano riportarla dentro l’Intelligenza Artificiale. Tutto ciò è essenziale per migliorare il processo di assunzione e dare sempre più attenzione ai candidati.
Una sfida tutt’altro che semplice, ma che si può giocare se si conoscono bene le potenzialità di tutti gli attori coinvolti nel processo.

Vuoi saperne di più su Inda?

CONTATTI

+39 0371 5948800
Corso Duca d’Aosta, 1- Torino
Via Caviglia 11 –  Milano

Copyright © 2022 Inda

Inda è una soluzione di Intervieweb S.r.l. Società del gruppo Zucchetti P.IVA: 10067590017

Privacy policy   Cookie policy