Negli ultimi anni, complici l’evoluzione tecnologica e la pervasiva informatizzazione del lavoro, le realtà produttive di tutto il mondo si sono trovate ad affrontare importanti cambiamenti, spesso in assenza di un apparato di regole entro cui muoversi. In questo contesto, l’avvento dell’intelligenza artificiale ha rappresentato un elemento di novità, con rischi e potenzialità inesplorate che le imprese dovranno debitamente tenere in considerazione per il futuro.
Il processo di trasformazione del mondo e del mercato del lavoro è ormai in corso da diverso tempo a causa delle frequenti innovazioni tecnologiche che hanno interessato tali ambiti; fino a pochi anni fa, tuttavia, non era immaginabile un’accelerazione così forte a causa dello sviluppo e della diffusione dei sistemi basati sull’intelligenza artificiale (IA).
Per comprendere la portata di tale fenomeno, basti considerare che l’IA ha già modificato i contenuti di tutte quelle mansioni che consistono in processi decisionali basati su dati (e big data) e sull’elaborazione delle informazioni, sostituendo rapidamente le attività manuali che fino a poco tempo fa richiedevano risorse aggiuntive e risultavano particolarmente dispendiose in termini di tempo ed energie. Il fatto che le macchine elaborino informazioni e dati, per trarre conclusioni o formare decisioni, spiega da sé quanto profonda possa essere questa rivoluzione.
Un recente studio del Gruppo Adecco ha rilevato che in media il 70% dei dipendenti in tutto il mondo utilizza già strumenti di IA generativa, come ChatGPT e Google Bard, sul posto di lavoro. Adecco prevede che circa 300 milioni di profili lavorativi saranno soggetti a trasformazioni a causa dell’implementazione di strumenti di IA nei prossimi anni.
Ma non solo. Uno degli ambiti in cui i sistemi basati sull’IA sono maggiormente diffusi è quello della selezione del personale.
L’uso dell’IA nel processo di recruiting apre la strada a grandi opportunità per le imprese alla ricerca di nuove risorse, ma anche a rischi da non sottovalutare. I sistemi di IA sono utilizzati per esaminare e valutare automaticamente curriculum, video colloqui e dati disponibili riguardanti i candidati, essendo in grado di creare un profilo dettagliato delle loro attitudini professionali e consentendo, in questo modo, di individuare i profili più adeguati alle esigenze aziendali.
La raccolta e la gestione automatizzata dei dati in fase preassuntiva risulta più rapida, accurata e incomparabilmente conveniente in tema di costi, rendendo improvvisamente obsoleti e dispendiosi i processi di reclutamento tradizionali. Una ricerca condotta dall’HR Research Institute ha rivelato che il 10% dei responsabili delle risorse umane intervistati utilizzava già nel 2019 sistemi di intelligenza artificiale, anche se le proiezioni suggerivano un aumento significativo e rapido di questa percentuale nei due anni successivi.
Le insidie, tuttavia, sono dietro l’angolo e dimostrano quanto sia ancora fondamentale l’intervento umano. I processi di reclutamento automatizzati, infatti, devono necessariamente essere governati al fine di garantirne la compliance con la normativa vigente in materia di protezione dei dati personali e divieto di discriminazione.
Su questo e su molti altri temi è intervenuto anche il legislatore europeo con l’Artificial Intelligence Act, approvato lo scorso 13 marzo, con la finalità di regolamentare l’uso e lo sviluppo dei sistemi basati sull’IA negli Stati dell’UE, garantendone un utilizzo etico, sicuro e responsabile che tuteli i diritti fondamentali e la sicurezza dei cittadini europei.
L’AI Act trova applicazione in tutti i settori, ad eccezione di quello militare, ed interessa pertanto anche l’ambito lavoristico.
Il modello introdotto dal legislatore europeo si basa sulla gestione del rischio; ciò significa essenzialmente che vengono individuati diversi sistemi di IA entro diverse categorie di rischio, a ciascuna delle quali corrisponde un diverso grado di regolamentazione.
I sistemi di IA utilizzati nel settore dell’occupazione, nella gestione dei lavoratori e nell’accesso al lavoro autonomo sono considerati ad alto rischio. Tra questi, sono inclusi tutti quei sistemi utilizzati per l’assunzione o la selezione di personale, per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati, adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti stessi, per assegnare mansioni sulla base del comportamento individuale, nonché per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro.
Per i sistemi ad alto rischio è richiesta l’osservanza di specifici obblighi per il soggetto utilizzatore. In primo luogo, infatti, deve essere garantita la massima trasparenza, prima ancora che detti sistemi siano immessi sul mercato o messi in servizio e, dunque, sin dalla fase di progettazione (considerando n. 72; art. 50).
Continua a leggere la versione integrale pubblicata su Agenda Digitale.
Altri insights correlati:
I dati sono diventati il nuovo petrolio e il loro ruolo verosimilmente crescerà ancora man mano che il digitale diventerà più centrale nelle nostre vite. Con implicazioni non banali in tema di privacy, come sottolinea Vittorio De Luca, fondatore dello studio legale De Luca & Partners. “Il legislatore comunitario è intervenuto in maniera importante su questo ambito nel corso degli ultimi anni, ma a livello aziendale il quadro è ancora diversificato tra realtà che hanno implementato e strutturato veri e propri modelli di compliance interni e nel tempo sono riuscite a mutare la cultura e la sensibilità di tutti coloro che compongono l’organizzazione, mentre altre continuano a considerare la data protection come un costo azienda piuttosto che un investimento”, sottolinea.
La normativa in materia di protezione dei dati personali e quella giuslavoristica sono ormai strettamente legate tra loro non solo per quel che concerne il trattamento dei dati relativi alle risorse umane. “Sempre più spesso ci capita di assistere aziende nella corretta gestione di richieste di accesso ai documenti e ai fascicoli personali che vengono – legittimamente – presentate dai lavoratori nell’ambito di procedimenti disciplinari nei loro confronti”, sottolinea. Con i rischi che possono derivare da una gestione scorretta di queste richieste “Oltre alle conseguenze sul fronte giuslavoristico, un soggetto interessato (in questo caso, il lavoratore) ha sempre la possibilità di effettuare una segnalazione all’Autorità Garante per la protezione dei dati”, spiega De Luca.
Continua a leggere la versione integrale pubblicata su La Repubblica.
Altri insights correlati:
Venerdì 26 aprile, Alberto De Luca ha partecipato in qualità di relatore alla conferenza “New World, New Wisdom” organizzata dall’Inter-Pacific Bar Association (IPBA), discutendo dei principali argomenti relativi ai recenti sviluppi e alle recenti tendenze nel campo dell’intelligenza artificiale e all’impatto di quest’ultima nel mondo delle risorse umane, durante il panel “LLaMA2, Bard, ChatGPT and Co. – just tech talk acronyms or serious drivers for (positive) change in HR?” (“LLaMA2, Bard, ChatGPT and Co. – solo acronimi tecnologici o seri driver per un cambiamento (positivo) nelle risorse umane?”).
Cosa c’è di nuovo nell’intelligenza artificiale e nel mondo del diritto del lavoro, e in che modo i paesi e le aziende affrontano le minacce e le opportunità indotte dall’IA a livello normativo/giurisdizionale? Il panel ha trattato dei recenti sviluppi e delle recenti tendenze nel campo dell’IA, del suo impatto sul ciclo eHR dei nostri clienti dall’assunzione al licenziamento e del relativo quadro normativo giuslavoristico (attuale e imminente) in materia di IA.
Insieme al moderatore, tra gli altri argomenti discussi, i relatori esploreranno l’impatto dei sistemi basati sull’IA nel rapporto di lavoro, con l’obiettivo di identificare i rischi e le opportunità derivanti dall’IA, anche alla luce dell’Artificial Intelligence Act (Legge sull’IA) dell’UE recentemente emanato.
Clicca su questo link per saperne di più sulla conferenza.
In un contesto in cui la tecnologia progredisce rapidamente, l’Intelligenza Artificiale (anche nota con l’acronimo inglese A.I.) sta rivoluzionando il panorama lavorativo globale, fungendo da motore di profondi cambiamenti e aprendo orizzonti fino ad oggi completamente sconosciuti.
Il mondo del diritto è dunque chiamato, ancora una volta, a dover disciplinare scenari nuovi che non rispondono ai tradizionali paradigmi legali fino ad oggi conosciuti. Il primo passo in tal senso arriva dall’Unione Europea. Si legge, infatti, sul sito del Parlamento europeo che “come parte della sua strategia digitale, l’UE intende regolamentare l’intelligenza artificiale al fine di garantire migliori condizioni per lo sviluppo e l’uso di questa innovativa tecnologia”. Così, lo scorso 9 dicembre 2023, la Commissione, il Consiglio e il Parlamento hanno raggiunto un accordo politico sul contenuto del c.d. “A.I. Act” – proposto dalla Commissione nel 2021 – che oggi i tecnici stanno traducendo in una proposta di testo definitiva.
La priorità del legislatore europeo è quella di garantire che i sistemi di A.I. utilizzati siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.
Si assiste dunque ad una presa di coscienza, anche a livello normativo, sul fatto che l’A.I. (i) sia il motore di un cambiamento che solleva questioni etiche, sociali e giuridiche attorno al suo utilizzo e alle relative conseguenze e (ii) rappresenti una delle sfide più importanti e complesse che le imprese sono tenute ad affrontare.
Proprio su quest’ultimo aspetto appare dunque opportuno che le organizzazioni si preparino ad affrontare la profonda trasformazione che, più o meno silenziosamente, è in corso nel mondo del lavoro.
Usufruire di una tecnologia che in maniera autonoma raccoglie informazioni, le elabora, trae da esse conclusioni o prende decisioni, contribuisce alla rapidità con cui le prestazioni possono essere svolte; migliora l’efficienza operativa e riduce l’errore nelle attività rutinarie; impatta sul fabbisogno di personale di una organizzazione aziendale o, ancora, influisce sulla misurazione delle performance di una risorsa umana.
Se da un lato ciò rappresenta una grande opportunità per rendere i processi aziendali più rapidi, affidabili ed economici, dall’altro diverse sono le problematiche in agguato. Tra esse, per quanto qui di interesse, segnaliamo (i) i bias e (ii) il rischio di un controllo datoriale intensivo.
La tecnologia, sebbene artificialmente intelligente, viene programmata da esseri umani e in quanto tale può quindi risentire dei pregiudizi dei loro programmatori, riflettendo e amplificando eventuali errori presenti nelle informazioni elaborate.
Per come la conosciamo oggi, infatti, la A.I. di tipo generativo è programmata per apprendere e (auto)addestrarsi al fine di migliorare nel tempo, e ciò anche in base alle informazioni che le vengono fornite. Il rischio di replicazione dei bias è dunque altissimo.
Non solo. l’A.I. fornisce ed elabora una quantità di dati inimmaginabili ed è anche in grado (direttamente o indirettamente) di consentire un intensivo controllo a distanza dei dipendenti.
Ciò posto, nell’ordinamento italiano il controllo a distanza è dettagliatamente disciplinato e consentito solo con modalità ed in presenza di condizioni stringenti previste dalla legge, tra cui anche il pieno rispetto delle previsioni in materia di data protection. Materia questa che gioca un evidente ruolo fondamentale quando si tratta di A.I.
Continua a leggere la versione integrale pubblicata su AIDP.