sabato, Aprile 20, 2024

L’INTELLIGENZA ARTIFICIALE CONTRO LE DISCRIMINAZIONI SUL LAVORO

The Science of Where Magazine incontra Keith Sonderling, Commissioner della U.S. Equal Employment Opportunity Commission.

> English Version

Qual è la missione della U.S. Equal Employment Opportunity Commission?

La Commissione per le pari opportunità di lavoro degli Stati Uniti (EEOC) è responsabile dell’applicazione delle leggi federali che rendono illegale la discriminazione sul posto di lavoro. La nostra missione è prevenire e porre rimedio alla discriminazione illecita sul lavoro e promuovere le pari opportunità per tutti. L’EEOC amministra e applica il Titolo VII del Civil Rights Act del 1964, il Pregnancy Discrimination Act, l’Equal Pay Act, l’Age Discrimination in Employment Act, l’Americans with Disabilities Act e il Genetic Information Nondiscrimination Act. Queste leggi proteggono un candidato o un dipendente dalla discriminazione basata su etnia, colore della pelle, religione, sesso, gravidanza, origine nazionale, età, disabilità o informazioni genetiche. Si applicano a tutti i tipi di situazioni lavorative: assunzioni, licenziamenti, promozioni, molestie, formazione, salari e benefici.

La tua riflessione Is artificial intelligence ready for the great rehiring?, pubblicata sul sito del World Economic Forum, è molto interessante. Qual è la tua tesi?

Una delle mie massime priorità come Commissario EEOC è garantire che l’IA sia utilizzata in modo da mitigare, piuttosto che esacerbare, la discriminazione sul posto di lavoro. A tal fine, il mio articolo per il World Economic Forum mette in evidenza alcune delle implicazioni dell’uso dell’IA sui diritti civili per assumere lavoratori negli Stati Uniti. Ho pubblicato articoli simili sull’uso dell’intelligenza artificiale nel processo decisionale sull’occupazione sul Chicago Tribune e su HR Dive e ho intenzione di pubblicarne altri. Il mio obiettivo è di educare il pubblico sui modi in cui le leggi federali antidiscriminatorie degli Stati Uniti si applicano a una tecnologia che si sta sviluppando rapidamente e che viene ampiamente adottata. L’intelligenza artificiale viene utilizzata in ogni tipo di decisione, dal reclutamento all’assunzione alle promozioni e al licenziamento. Ritengo che, accuratamente progettata e utilizzata correttamente, l’IA abbia il potenziale per mitigare il rischio di discriminazioni illecite sul lavoro. Ad esempio, un programma di screening del curriculum può essere organizzato per ignorare le variabili che non hanno alcun impatto sulle prestazioni lavorative, come il sesso, l’origine nazionale o l’etnia di un candidato. Tuttavia, l’intelligenza artificiale – se mal progettata o utilizzata con noncuranza – può anche discriminare su una scala e su una grandezza di gran lunga maggiori di qualsiasi singola persona. Poiché le previsioni di un algoritmo sono valide solo quanto i suoi dati di addestramento, i dati distorti portano a risultati distorti. Ad esempio, un algoritmo che si basa esclusivamente sulle caratteristiche dell’attuale forza lavoro di un’azienda per modellare gli attributi del candidato ideale può replicare involontariamente lo status quo. Se l’attuale forza lavoro è composta principalmente da dipendenti di una etnia, un sesso o una fascia di età, l’algoritmo può escludere automaticamente i candidati che non condividono le stesse caratteristiche. L’articolo che ho scritto per il World Economic Forum mette in evidenza un esempio di come ciò potrebbe accadere. Nei primi mesi della pandemia, le donne, gli afroamericani e i latinoamericani erano disoccupati a tassi più elevati rispetto agli uomini bianchi negli Stati Uniti. Quindi, se un datore di lavoro dovesse fare affidamento esclusivamente sugli attributi della sua forza lavoro “pandemica” nello sviluppo di un modello di dati per l’assunzione, egli potrebbe inavvertitamente replicare le disparità di genere ed etniche anche nell’era post-pandemia. Questo è problematico per molti motivi, non ultimo il fatto che un datore di lavoro non ha bisogno di discriminare intenzionalmente per impegnarsi in una pratica di assunzione vietata dalla legge degli Stati Uniti. L’EEOC ha l’autorità di citare in giudizio i datori di lavoro per conto delle vittime di discriminazione. Tuttavia, credo che l’applicazione e l’istruzione debbano andare di pari passo. È preferibile prevenire in primo luogo il verificarsi di una discriminazione piuttosto che doverne rimediare alle conseguenze. Nella mia esperienza, la maggior parte dei datori di lavoro vuole fare la cosa giusta; hanno solo bisogno degli strumenti per adeguarsi. Ho scoperto che questo è vero in modo univoco nello spazio della tecnologia del lavoro, dove ho incontrato una comunità di sostenitori dei dipendenti, ingegneri, scienziati, imprenditori, esperti di etica, avvocati e datori di lavoro determinati ad operare correttamente. Stanno cercando indicazioni su come utilizzare l’IA in modo da rispettare i diritti dei dipendenti. Accolgo con favore questo interesse e spero di lavorare con la comunità regolamentata per fornire la chiarezza giuridica di cui hanno bisogno per garantire che l’IA renda il posto di lavoro più equo, inclusivo e diversificato.

C’è un grande dibattito sull’impatto dell’innovazione sul mercato del lavoro globale. Qual è la tua opinione in generale?

Gran parte del dibattito sull’impatto dell’innovazione sul mercato del lavoro globale si concentra sul futuro, e per buoni motivi. Il World Economic Forum prevede che nei prossimi quattro anni 85 milioni di posti di lavoro potrebbero essere sostituiti dall’IA. E, entro il 2025, l’IA sarà così pervasiva che macchine e umani lavoreranno lo stesso numero di ore. Tuttavia, dal punto di vista della legge antidiscriminazione sul posto di lavoro, il futuro è adesso. L’intelligenza artificiale è stata utilizzata per anni per prendere decisioni in ogni fase del ciclo di vita del lavoro. Recluta e assume, valuta e promuove, identifica i candidati per il reskilling e l’upskilling e licenzia persino i dipendenti. Scrive la descrizione del lavoro, esamina i curriculum e conduce i colloqui di lavoro. Identifica le competenze attuali e potenziali dei dipendenti, tiene traccia della produttività e valuta i lavoratori. E, se un dipendente non soddisfa le aspettative, un algoritmo di intelligenza artificiale può inviargli un messaggio per informarlo che è stato licenziato. Poiché l’intelligenza artificiale è così profondamente radicata nelle decisioni che modellano i mezzi di sussistenza e le carriere dei singoli esseri umani, è essenziale che la tecnologia venga impiegata in modo coerente con le leggi sui diritti civili. Gli Stati Uniti hanno forti leggi antidiscriminatorie, leggi sulla privacy e leggi sul lavoro. Abbiamo anche istituzioni solide per far rispettare tali leggi. Ma nei Paesi in cui tali leggi sono deboli – o addirittura inesistenti – l’IA ha il potenziale per violare i diritti umani su grande scala, accrescendo il divario tra il Nord e il Sud del mondo. Questo problema ha attirato l’attenzione delle organizzazioni internazionali. Essendo solo un funzionario del governo USA in ambito normativo, sto osservando da vicino queste tendenze.

L’intelligenza artificiale può aiutare a ridurre le disuguaglianze nei diversi mercati del lavoro. Quale uso suggerisci affinché l’IA non porti a ulteriori disuguaglianze?

Decidere di affidare ad algoritmi i mezzi di sussistenza delle persone è una questione complessa e importante. I datori di lavoro non dovrebbero aver paura di chiedere aiuto a esperti come l’EEOC, gruppi di difesa dei dipendenti, gruppi commerciali, gruppi di riflessione, studiosi, psicologi industriali, esperti di etica, professionisti delle risorse umane, consulenti interni o studi legali. Nel 2020, il Presidente Trump ha emesso un Executive Order che elenca una serie di principi per guidare l’uso dell’intelligenza artificiale nel governo. Includono accuratezza, affidabilità, sicurezza, responsabilità, tracciabilità, trasparenza e responsabilità. I datori di lavoro americani farebbero bene ad adottare gli stessi principi nel loro uso dell’IA. Prima di adottare una tecnologia abilitata all’intelligenza artificiale per creare e gestire la propria forza lavoro, i datori di lavoro dovrebbero esaminare attentamente sia gli algoritmi che i fornitori. Dovrebbero sollecitare i fornitori per i dettagli su come sono progettati i loro programmi di intelligenza artificiale, su come testano i pregiudizi e su come i dati di formazione vengono raccolti e protetti. Anche dopo aver implementato l’intelligenza artificiale sul posto di lavoro, i datori di lavoro dovrebbero continuare a testare i loro algoritmi per rilevare eventuali errori. Non devono perdere di vista il fatto che l’IA si autoalimenta e richiede un attento monitoraggio.

Il nostro Magazine si occupa, in particolare, della scienza del dove. La capacità di organizzare e gestire i dati è sempre più indispensabile, in molti settori, al fine di individuare le migliori soluzioni operative per governare i processi della realtà. In sostanza, si tratta di collegare strategicamente i dati che produciamo e le complessità dei contesti per trovare le politiche più adatte a gestire la fase post-pandemia. L’occupazione viene prima di tutto. Cosa ne pensi ?

Per la Commissione per le Pari Opportunità, l’occupazione viene necessariamente al primo posto perché, come dicevo, siamo responsabili dell’applicazione delle leggi che prevengono e rimediano alla discriminazione sul lavoro e promuovono le pari opportunità per tutti. Nella misura in cui il COVID ha esacerbato le disuguaglianze esistenti sul posto di lavoro, dobbiamo impedire che tali disuguaglianze persistano in un mondo post-pandemia. È probabile che l’intelligenza artificiale svolga un ruolo fuori misura nel ritorno al lavoro post-COVID. Secondo un recente studio, il 70 per cento dei professionisti del talento ha riferito di ritenere che il reclutamento virtuale diventerà la norma anche dopo la fine della pandemia. I datori di lavoro, in particolare quelli che hanno bisogno di assumere rapidamente e in gran numero, si stanno rivolgendo a tecnologie basate sull’intelligenza artificiale come programmi di screening dei curriculum, interviste automatizzate e app di assunzione mobile per ricostruire la propria forza lavoro. Per i milioni di dipendenti che sono stati allontanati a causa della pandemia di COVID-19, queste tecnologie possono significare un ritorno veloce sul posto di lavoro. E per le aziende chiuse dalla pandemia, esse rappresentano un percorso efficiente per tornare alla redditività. Tutto ciò sottolinea l’importanza e la tempestività della mia iniziativa per garantire che l’IA sia sviluppata e implementata in modo conforme alla legge antidiscriminazione degli Stati Uniti.

Infine, una questione geopolitica. Quali sono le principali differenze nel rapporto tra innovazione e occupazione tra USA ed Europa?

Per quanto riguarda l’innovazione e l’occupazione, penso che gli Stati Uniti e l’Europa abbiano più cose in comune di quanto potrebbe sembrare. Entrambi stanno cercando di trovare modi per regolamentare le tecnologie in rapido sviluppo in modo da non soffocare l’innovazione né violare i diritti dell’individuo. Abbiamo anche a che fare con uno sforzo a più livelli per regolamentare. Negli Stati Uniti, gli sforzi nazionali per sviluppare un quadro normativo armonizzato per l’IA e l’apprendimento automatico sono agli inizi. Allo stesso tempo, le legislazioni statali e municipali hanno iniziato a regolamentare queste tecnologie, dando origine a un potenziale mosaico di leggi negli Stati Uniti. Allo stesso modo, l’Unione Europea sta valutando un’audace regolamentazione transnazionale che governi l’intelligenza artificiale e l’apprendimento automatico, mentre alcuni Stati membri stanno valutando anche la legislazione nazionale in materia. Credo che gli Stati Uniti abbiano molto da imparare dall’ European Union’s Artificial Intelligence Act. L’approccio basato sul rischio della proposta alla regolamentazione dell’IA mira a creare fiducia nella tecnologia proteggendo i diritti fondamentali, garantendo la sicurezza pubblica e promuovendo l’innovazione. A tal fine, crea una tassonomia del rischio a quattro livelli, da inaccettabile a minimo. Vale la pena notare due cose su questa tassonomia. In primo luogo, i sistemi di intelligenza artificiale utilizzati a fini occupazionali sono caratterizzati come “ad alto rischio”, insieme ai sistemi utilizzati per l’identificazione biometrica, le infrastrutture critiche e l’invio di servizi di emergenza (tra gli altri). Questi sistemi ad alto rischio sono soggetti a solide relazioni, divulgazione, convalida e requisiti di accuratezza. In secondo luogo, l’ Algorithmic Accountability Act del 2019, che è stato introdotto al Congresso ma non è stato convertito in legge, ha proposto allo stesso modo un regime normativo basato sul rischio, sebbene in termini molto meno specifici di quelli del regolamento UE sull’IA. Inoltre, ha inquadrato la regolamentazione dell’IA principalmente in termini di protezione dei consumatori rispetto all’approccio dell’intera economia adottato dalla proposta dell’UE. Pertanto, sebbene di portata più modesta e meno specifica nella sostanza, la proposta del 2019 riflette un accordo fondamentale tra l’UE e gli Stati Uniti sui rischi dell’IA non regolamentata.

 

Ultimi articoli