L’Intelligence Artificielle (IA) est désormais une composante concrète des processus d’entreprise, trouvant une application croissante notamment dans la gestion des ressources humaines. Les algorithmes promettent efficacité et impartialité dans des activités complexes telles que le recrutement, l’évaluation des performances ou l’attribution des missions. Toutefois, cette promesse s’accompagne de risques importants. En raison précisément de leur incidence potentielle sur les droits fondamentaux, les systèmes d’IA utilisés dans le contexte du travail sont aujourd’hui considérés comme des “technologies à haut risque”, soumises à des obligations strictes de transparence, de supervision humaine et d’évaluation de l’impact sur les travailleurs.
C’est dans ce contexte que s’insèrent les “Lignes directrices pour l’utilisation des systèmes d’Intelligence Artificielle dans le contexte du travail” publiées récemment par le Ministère du Travail : il ne s’agit pas d’une norme contraignante, mais d’un document stratégique qui représente une orientation politique et culturelle claire pour le tissu productif italien, avec une attention particulière portée aux PME. L’objectif est double : promouvoir une adoption consciente de l’IA et assurer la pleine protection des droits des travailleurs.
Le document repose sur un message sans équivoque : l’IA ne peut pas être une “boîte noire” qui décide de manière opaque et incontestable. Même lorsque la technologie est développée par des tiers, la responsabilité finale incombe toujours à l’employeur. Pour les entreprises, il s’agit de passer d’une phase expérimentale à une gestion structurée, conforme aux principes de conformité et de durabilité.
Les quatre piliers des lignes directrices relatives à l’utilisation de l’IA
Le document ministériel s’articule autour de quatre axes fondamentaux, qui formalisent des obligations déjà présentes dans le cadre normatif et jurisprudentiel actuel, tout en en renforçant l’application dans une perspective préventive.
1. Supervision humaine obligatoire
Les décisions qui influencent la position juridique du travailleur – embauches, promotions, évaluations, mesures disciplinaires ou licenciements – ne peuvent pas être laissées à la seule appréciation algorithmique. Un contrôle humain effectif, conscient et traçable est nécessaire, exercé par une personne compétente et habilitée. Cette personne doit être en mesure de comprendre, valider ou même contester les indications de la machine, en assumant l’entière responsabilité de la décision finale.
2. Obligation de transparence algorithmique
Les entreprises doivent informer de manière claire et accessible les travailleurs de l’utilisation de l’IA dans les processus qui les concernent. Une communication générique ne suffit pas : il faut expliquer quelles données sont traitées (CV, performances, tests d’aptitude), quelles logiques et quels critères l’algorithme utilise et quel impact cela a sur la décision finale. Le principe directeur est « l’intelligibilité » : le système doit être explicable, compréhensible et contestable.
3. Évaluation d’impact et atténuation du risque
Conformément à l’AI Act européen, l’utilisation de l’IA dans le domaine des ressources humaines est qualifiée d’activité à haut risque. Il en découle une obligation pour l’employeur d’effectuer, avant la mise en service, une évaluation d’impact tenant compte des effets discriminatoires potentiels, de la protection de la vie privée et de la qualité des données utilisées. Les Lignes directrices encouragent également l’introduction d’audits périodiques et de contrôles systématiques sur le fonctionnement des algorithmes.
4. Cartographie et accountability
L’entreprise doit savoir quels systèmes d’IA elle utilise, où, à quelles fins et qui en est responsable. La responsabilité ne peut pas être déléguée au fournisseur de la technologie : c’est à l’organisation de garantir une utilisation correcte et éthique des systèmes, à travers une gouvernance interne appropriée. La cartographie des systèmes et la définition des rôles internes représentent une exigence essentielle au respect du principe d’accountability.
Continuez la lecture de la version intégrale publiée sur Econopoly de Il Sole 24 Ore.
Negli ultimi anni, complici l’evoluzione tecnologica e la pervasiva informatizzazione del lavoro, le realtà produttive di tutto il mondo si sono trovate ad affrontare importanti cambiamenti, spesso in assenza di un apparato di regole entro cui muoversi. In questo contesto, l’avvento dell’intelligenza artificiale ha rappresentato un elemento di novità, con rischi e potenzialità inesplorate che le imprese dovranno debitamente tenere in considerazione per il futuro.
Il processo di trasformazione del mondo e del mercato del lavoro è ormai in corso da diverso tempo a causa delle frequenti innovazioni tecnologiche che hanno interessato tali ambiti; fino a pochi anni fa, tuttavia, non era immaginabile un’accelerazione così forte a causa dello sviluppo e della diffusione dei sistemi basati sull’intelligenza artificiale (IA).
Per comprendere la portata di tale fenomeno, basti considerare che l’IA ha già modificato i contenuti di tutte quelle mansioni che consistono in processi decisionali basati su dati (e big data) e sull’elaborazione delle informazioni, sostituendo rapidamente le attività manuali che fino a poco tempo fa richiedevano risorse aggiuntive e risultavano particolarmente dispendiose in termini di tempo ed energie. Il fatto che le macchine elaborino informazioni e dati, per trarre conclusioni o formare decisioni, spiega da sé quanto profonda possa essere questa rivoluzione.
Un recente studio del Gruppo Adecco ha rilevato che in media il 70% dei dipendenti in tutto il mondo utilizza già strumenti di IA generativa, come ChatGPT e Google Bard, sul posto di lavoro. Adecco prevede che circa 300 milioni di profili lavorativi saranno soggetti a trasformazioni a causa dell’implementazione di strumenti di IA nei prossimi anni.
Ma non solo. Uno degli ambiti in cui i sistemi basati sull’IA sono maggiormente diffusi è quello della selezione del personale.
L’uso dell’IA nel processo di recruiting apre la strada a grandi opportunità per le imprese alla ricerca di nuove risorse, ma anche a rischi da non sottovalutare. I sistemi di IA sono utilizzati per esaminare e valutare automaticamente curriculum, video colloqui e dati disponibili riguardanti i candidati, essendo in grado di creare un profilo dettagliato delle loro attitudini professionali e consentendo, in questo modo, di individuare i profili più adeguati alle esigenze aziendali.
La raccolta e la gestione automatizzata dei dati in fase preassuntiva risulta più rapida, accurata e incomparabilmente conveniente in tema di costi, rendendo improvvisamente obsoleti e dispendiosi i processi di reclutamento tradizionali. Una ricerca condotta dall’HR Research Institute ha rivelato che il 10% dei responsabili delle risorse umane intervistati utilizzava già nel 2019 sistemi di intelligenza artificiale, anche se le proiezioni suggerivano un aumento significativo e rapido di questa percentuale nei due anni successivi.
Le insidie, tuttavia, sono dietro l’angolo e dimostrano quanto sia ancora fondamentale l’intervento umano. I processi di reclutamento automatizzati, infatti, devono necessariamente essere governati al fine di garantirne la compliance con la normativa vigente in materia di protezione dei dati personali e divieto di discriminazione.
Su questo e su molti altri temi è intervenuto anche il legislatore europeo con l’Artificial Intelligence Act, approvato lo scorso 13 marzo, con la finalità di regolamentare l’uso e lo sviluppo dei sistemi basati sull’IA negli Stati dell’UE, garantendone un utilizzo etico, sicuro e responsabile che tuteli i diritti fondamentali e la sicurezza dei cittadini europei.
L’AI Act trova applicazione in tutti i settori, ad eccezione di quello militare, ed interessa pertanto anche l’ambito lavoristico.
Il modello introdotto dal legislatore europeo si basa sulla gestione del rischio; ciò significa essenzialmente che vengono individuati diversi sistemi di IA entro diverse categorie di rischio, a ciascuna delle quali corrisponde un diverso grado di regolamentazione.
I sistemi di IA utilizzati nel settore dell’occupazione, nella gestione dei lavoratori e nell’accesso al lavoro autonomo sono considerati ad alto rischio. Tra questi, sono inclusi tutti quei sistemi utilizzati per l’assunzione o la selezione di personale, per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati, adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti stessi, per assegnare mansioni sulla base del comportamento individuale, nonché per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro.
Per i sistemi ad alto rischio è richiesta l’osservanza di specifici obblighi per il soggetto utilizzatore. In primo luogo, infatti, deve essere garantita la massima trasparenza, prima ancora che detti sistemi siano immessi sul mercato o messi in servizio e, dunque, sin dalla fase di progettazione (considerando n. 72; art. 50).
Continua a leggere la versione integrale pubblicata su Agenda Digitale.
Altri insights correlati:
Dans un contexte où la technologie progresse rapidement, l’intelligence artificielle (également connue sous l’acronyme anglais A.I.) révolutionne le paysage du travail mondial, agissant comme le moteur de profonds changements et ouvrant des horizons jusqu’alors totalement inconnus.
Le monde du droit est donc appelé, une fois de plus, à réglementer de nouveaux scénarios qui ne répondent pas aux paradigmes juridiques traditionnels connus à ce jour. La première étape à cet égard vient de l’Union européenne. En effet, sur le site internet du Parlement européen, on peut lire que « dans le cadre de sa stratégie numérique, l’UE souhaite réglementer l’intelligence artificielle (IA) afin de garantir de meilleures conditions de développement et d’’utilisation de cette technologie innovante ». Ainsi, le 9 décembre 2023, la Commission, le Conseil et le Parlement sont parvenus à un accord politique sur le contenu de ce que l’on appelle « Loi sur l’IA », proposé par la Commission en 2021, que les techniciens sont aujourd’hui en train de traduire par une proposition de texte définitive.
La priorité du législateur européen est de s’assurer que les systèmes d’IA utilisés sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.
Il existe donc une prise de conscience, même au niveau réglementaire, du fait que l’IA (i) est le moteur d’un changement qui soulève des questions éthiques, sociales et juridiques concernant son utilisation et les conséquences connexes et (ii) représente l’un des défis les plus importants et les plus complexes auxquels les entreprises sont confrontées.
C’est précisément sur ce dernier point qu’il semble donc approprié que les organisations se préparent à faire face à la profonde transformation qui se produit, plus ou moins silencieusement, dans le monde du travail.
L’utilisation d’une technologie qui collecte des informations de manière autonome, les traite, en tire des conclusions ou prend des décisions, contribue à la rapidité avec laquelle les performances peuvent être réalisées ; améliore l’efficacité opérationnelle et réduit les erreurs dans les activités de routine ; a un impact sur les besoins en personnel d’une organisation commerciale ou, encore, a une incidence sur la mesure des performances d’une ressource humaine.
Si, d’une part, cela représente une excellente opportunité de rendre les processus d’entreprise plus rapides, plus fiables et moins chers, d’autre part, plusieurs problèmes se profilent. Parmi de tels problèmes, pour ce qui nous concerne ici, nous souhaitons souligner (i) les biais et (ii) le risque d’un contrôle intensif de la part de l’employeur.
La technologie, bien qu’artificiellement intelligente, est programmée par des êtres humains et, en tant que telle, peut donc être affectée par les préjugés de ses programmeurs, reflétant et amplifiant les erreurs présentes dans les informations traitées.
Telle que nous la connaissons aujourd’hui, en effet, l’IA générative est programmée pour apprendre et (s’auto-)entraîner afin de s’améliorer au fil du temps, et cela également sur la base des informations qui lui sont transmises. Le risque de réplication des biais est donc très élevé.
En outre, l’IA fournit et traite une quantité inimaginable de données et est également capable (directement ou indirectement) de permettre un contrôle à distance intensif des employés.
Cela dit, dans le système juridique italien, le contrôle à distance est réglementé en détail et autorisé uniquement selon des modalités et en présence de conditions strictes prévues par la loi, y compris le plein respect des dispositions relatives à la protection des données. Cette question joue un rôle fondamental évident en matière d’IA.
Continuez à lire la version complète publiée sur AIDP.
Mercoledì 13 marzo 2024, il Parlamento europeo ha approvato la proposta di testo del c.d. “A.I. Act”, il primo testo normativo, un Regolamento, in materia di intelligenza artificiale, che – stabilendo obblighi per l’A.I. sulla base dei possibili rischi e del livello d’impatto – si pone l’obiettivo di proteggere il rispetto dei diritti fondamentali degli individui, della democrazia e della sostenibilità ambientale dai sistemi “ad alto rischio”.
Sono “ad alto rischio” i sistemi di A.I. destinati a essere utilizzati per:
Per avere maggiori informazioni sull’argomento, contattaci a info@delucapartners.it