L’intelligenza artificiale in azienda comporta rischi relativi alla sicurezza dei dati e alla protezione del know-how. Le organizzazioni necessitano di policy adeguate per garantire un utilizzo etico e conforme alla normativa

Quando un dipendente ricorre a sistemi di intelligenza artificiale – spesso generativa – per svolgere le proprie attività lavorative potrebbe, in maniera più o meno consapevole, condividere con soggetti esterni, e quindi non autorizzati, know-how aziendale e informazioni personali.

Intelligenza artificiale in azienda: definizione e diffusione

Vale, innanzitutto, la pena precisare che l’Intelligenza Artificiale generativa è una tipologia di tecnologia che impara dai contenuti esistenti per generarne di nuovi in base alle specifiche richieste del suo interlocutore (umano).

Negli ultimi anni, l’I.A. generativa è entrata nel quotidiano e il mondo del lavoro non ne è stato esente. Accade infatti con sempre maggior frequenza che i lavoratori utilizzino tali tecnologie per portare a termine le proprie attività e nel farlo immettano nei sistemi informazioni aziendali, anche sensibili, know-how aziendale ovvero dati personali e particolari. Spesso le aziende non sono informate o non sono consapevoli di tali pratiche e rischiano di essere esposte a importanti rischi – anche dal punto di vista della cybersicurezza – senza neppure esserne coscienti.

I rischi dell’intelligenza artificiale in azienda, spiegati dall’IA

Nel tentativo di rispondere a questo quesito, abbiamo voluto interpellare una delle parti direttamente coinvolte. Di seguito, per punti, i principali red flag legati all’adozione di I.A. generativa che lei stessa ci ha segnalato.

Secondo l’I.A., acconsentire a che i lavoratori utilizzino queste tecnologie potrebbe comportare per una società:

  • problematiche connesse alla governance e alla gestione della sicurezza informatica;
  • violazioni delle norme in materia di protezione dei dati personali;
  • commissione di comportamenti discriminatori derivanti dai pregiudizi (bias) contenuti nei dati con cui è stata addestrata;
  • eccessiva dipendenza dei lavoratori all’intelligenza artificiale che, nei casi più gravi, potrebbe causare un pericolo di riduzione delle capacità decisionali e critiche tipiche dell’essere umano.

Tutti spunti interessanti ai quali non si può non aggiungere anche il rischio di divulgazione di know-how aziendale e quindi di dispersione di informazioni sensibili per una azienda.

Protezione dell’azienda nell’era dell’intelligenza artificiale

Da queste brevi considerazioni, sorge spontaneo domandarsi come una società possa quindi proteggersi da tutti i rischi connessi ad un uso generalizzato, diffuso e non controllato dell’I.A. generativa da parte dei lavoratori.

In uno scenario che può intimorire e creare scetticismo, certamente la soluzione non può essere quella di impedire l’utilizzo di tali tecnologie che, al contrario, rappresentano sempre più un elemento per rimanere competitivi e contribuiscono allo sviluppo dell’azienda ma anche alla crescita delle sue risorse (umane).

Fondamentale diventa quindi imparare a farne un uso etico e consapevole.

Linee guida per l’intelligenza artificiale in azienda

  • È fondamentale non permettere che i dipendenti ricorrano all’I.A. senza regolamentarne internamente l’utilizzo e fornire loro specifici training, linee guida e best practices. Investire in formazione, in sistemi di sicurezza solidi e in politiche di gestione del cambiamento per garantire che l’adozione dell’I.A. porti vantaggi reali senza però compromettere la sicurezza, l’integrità o la cultura aziendale è una esigenza di primaria importanza.

Continua a leggere la versione integrale pubblicata su Agenda Digitale.

L’implementazione di sistemi IA in ambito lavorativo solleva preoccupazioni sulla discriminazione indiretta. I tribunali italiani evidenziano come gli algoritmi possano perpetuare pregiudizi esistenti, compromettendo i diritti fondamentali dei lavoratori.

L’introduzione di sistemi basati sull’intelligenza artificiale (IA) nei contesti lavorativi sta rivoluzionando i processi aziendali, consentendo alle imprese di ottenere significativi vantaggi in termini di efficienza, precisione e produttività, anche nella gestione e organizzazione della propria forza lavoro.

Il principio di non discriminazione in ambito lavorativo

L’adozione di tali strumenti, tuttavia, pone diverse questioni critiche, e deve misurarsi necessariamente con il rispetto del principio di non discriminazione in ambito lavorativo.

Questo principio, come noto, tutela i lavoratori contro ogni forma di discriminazione, sia diretta che indiretta, basata su genere, razza o origine etnica, religione, disabilità, età, adesione ad associazioni sindacali, partecipazione a scioperi, e così via. Si tratta di una tutela che si estende a ogni fase del rapporto di lavoro, a partire dall’accesso all’occupazione, fino alla gestione del rapporto stesso, incluse le condizioni di lavoro, l’avanzamento di carriera, la retribuzione e finanche le modalità di cessazione del rapporto di lavoro.

Il problema è cruciale in quanto gli algoritmi su cui si fondano i sistemi di IA, soprattutto se appartenenti al tipo “machine learning”, si basano sull’analisi di grandi quantità di dati per apprendere e assumere decisioni. Se però i dati utilizzati per il loro addestramento o funzionamento contengono pregiudizi di natura storica, statistica o sociale, l’algoritmo potrebbe replicarli, mettendo così a rischio i diritti fondamentali dei lavoratori.

Si tratta di una criticità evidenziata anche nel nuovo Regolamento Europeo n. 2024/1689, cd. “AI Act”, che entrerà in vigore dal prossimo 2 agosto 2026. In particolare, al considerando 31 del Regolamento il legislatore Europeo sottolinea che i sistemi di IA che permettono “di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all’esclusione di determinati gruppi” evidenziando, inoltre, come gli stessi sistemi possano “ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia”.

Le recenti pronunce giurisprudenziali in tema di IA e divieto di discriminazione

In Italia sono già diverse pronunce giurisprudenziali che hanno affrontato la problematica sotto diverse angolazioni, mettendo in luce i rischi connessi all’uso di algoritmi e sistemi decisionali nella gestione della forza lavoro.

La sentenza del Tribunale di Palermo

In particolare, il Tribunale di Palermo, con una sentenza del 17 novembre 2023, ha accertato la natura discriminatoria del sistema di valutazione di eccellenza utilizzato da una nota società di consegne a domicilio per l’assegnazione degli incarichi ai suoi corrieri.

La piattaforma utilizzata dalla società si basava, infatti, su un sistema noto come “punteggio di eccellenza” che premiava i corrieri più produttivi, ossia che effettuavano il maggior numero di consegne, e più affidabili, in quanto disponibili a lavorare assiduamente nelle fasce orarie ad alta richiesta, ossia negli orari serali o durante i giorni festivi, garantendo loro un accesso prioritario alla scelta della collocazione delle successive prestazioni.

Si veniva così a creare, però, una disparità di trattamento significativa rispetto ai lavoratori che non potevano soddisfare tali requisiti.

Continua a leggere la versione integrale pubblicata su Agenda Digitale.

Negli ultimi anni, complici l’evoluzione tecnologica e la pervasiva informatizzazione del lavoro, le realtà produttive di tutto il mondo si sono trovate ad affrontare importanti cambiamenti, spesso in assenza di un apparato di regole entro cui muoversi. In questo contesto, l’avvento dell’intelligenza artificiale ha rappresentato un elemento di novità, con rischi e potenzialità inesplorate che le imprese dovranno debitamente tenere in considerazione per il futuro.

Il processo di trasformazione del mondo e del mercato del lavoro è ormai in corso da diverso tempo a causa delle frequenti innovazioni tecnologiche che hanno interessato tali ambiti; fino a pochi anni fa, tuttavia, non era immaginabile un’accelerazione così forte a causa dello sviluppo e della diffusione dei sistemi basati sull’intelligenza artificiale (IA).

L’intelligenza artificiale nel mercato del lavoro

Per comprendere la portata di tale fenomeno, basti considerare che l’IA ha già modificato i contenuti di tutte quelle mansioni che consistono in processi decisionali basati su dati (e big data) e sull’elaborazione delle informazioni, sostituendo rapidamente le attività manuali che fino a poco tempo fa richiedevano risorse aggiuntive e risultavano particolarmente dispendiose in termini di tempo ed energie. Il fatto che le macchine elaborino informazioni e dati, per trarre conclusioni o formare decisioni, spiega da sé quanto profonda possa essere questa rivoluzione.

Un recente studio del Gruppo Adecco ha rilevato che in media il 70% dei dipendenti in tutto il mondo utilizza già strumenti di IA generativa, come ChatGPT e Google Bard, sul posto di lavoro. Adecco prevede che circa 300 milioni di profili lavorativi saranno soggetti a trasformazioni a causa dell’implementazione di strumenti di IA nei prossimi anni.

L’IA nella selezione del personale: opportunità e rischi

Ma non solo. Uno degli ambiti in cui i sistemi basati sull’IA sono maggiormente diffusi è quello della selezione del personale.

L’uso dell’IA nel processo di recruiting apre la strada a grandi opportunità per le imprese alla ricerca di nuove risorse, ma anche a rischi da non sottovalutare. I sistemi di IA sono utilizzati per esaminare e valutare automaticamente curriculum, video colloqui e dati disponibili riguardanti i candidati, essendo in grado di creare un profilo dettagliato delle loro attitudini professionali e consentendo, in questo modo, di individuare i profili più adeguati alle esigenze aziendali.

La raccolta e la gestione automatizzata dei dati in fase preassuntiva risulta più rapida, accurata e incomparabilmente conveniente in tema di costi, rendendo improvvisamente obsoleti e dispendiosi i processi di reclutamento tradizionali. Una ricerca condotta dall’HR Research Institute ha rivelato che il 10% dei responsabili delle risorse umane intervistati utilizzava già nel 2019 sistemi di intelligenza artificiale, anche se le proiezioni suggerivano un aumento significativo e rapido di questa percentuale nei due anni successivi.

Protezione dei dati e compliance nel reclutamento automatizzato

Le insidie, tuttavia, sono dietro l’angolo e dimostrano quanto sia ancora fondamentale l’intervento umano. I processi di reclutamento automatizzati, infatti, devono necessariamente essere governati al fine di garantirne la compliance con la normativa vigente in materia di protezione dei dati personali e divieto di discriminazione.

Su questo e su molti altri temi è intervenuto anche il legislatore europeo con l’Artificial Intelligence Act, approvato lo scorso 13 marzo, con la finalità di regolamentare l’uso e lo sviluppo dei sistemi basati sull’IA negli Stati dell’UE, garantendone un utilizzo etico, sicuro e responsabile che tuteli i diritti fondamentali e la sicurezza dei cittadini europei.

L’Artificial Intelligence Act: un quadro normativo per l’IA

L’AI Act trova applicazione in tutti i settori, ad eccezione di quello militare, ed interessa pertanto anche l’ambito lavoristico.

Il modello introdotto dal legislatore europeo si basa sulla gestione del rischio; ciò significa essenzialmente che vengono individuati diversi sistemi di IA entro diverse categorie di rischio, a ciascuna delle quali corrisponde un diverso grado di regolamentazione.

I sistemi di IA utilizzati nel settore dell’occupazione, nella gestione dei lavoratori e nell’accesso al lavoro autonomo sono considerati ad alto rischio. Tra questi, sono inclusi tutti quei sistemi utilizzati per l’assunzione o la selezione di personale, per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati, adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti stessi, per assegnare mansioni sulla base del comportamento individuale, nonché per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro.

L’applicazione dell’AI Act nel settore dell’occupazione

Per i sistemi ad alto rischio è richiesta l’osservanza di specifici obblighi per il soggetto utilizzatore. In primo luogo, infatti, deve essere garantita la massima trasparenza, prima ancora che detti sistemi siano immessi sul mercato o messi in servizio e, dunque, sin dalla fase di progettazione (considerando n. 72; art. 50).

Continua a leggere la versione integrale pubblicata su Agenda Digitale.

Altri insights correlati:

I dati sono diventati il nuovo petrolio e il loro ruolo verosimilmente crescerà ancora man mano che il digitale diventerà più centrale nelle nostre vite. Con implicazioni non banali in tema di privacy, come sottolinea Vittorio De Luca, fondatore dello studio legale De Luca & Partners. “Il legislatore comunitario è intervenuto in maniera importante su questo ambito nel corso degli ultimi anni, ma a livello aziendale il quadro è ancora diversificato tra realtà che hanno implementato e strutturato veri e propri modelli di compliance interni e nel tempo sono riuscite a mutare la cultura e la sensibilità di tutti coloro che compongono l’organizzazione, mentre altre continuano a considerare la data protection come un costo azienda piuttosto che un investimento”, sottolinea.

La normativa in materia di protezione dei dati personali e quella giuslavoristica sono ormai strettamente legate tra loro non solo per quel che concerne il trattamento dei dati relativi alle risorse umane. “Sempre più spesso ci capita di assistere aziende nella corretta gestione di richieste di accesso ai documenti e ai fascicoli personali che vengono – legittimamente – presentate dai lavoratori nell’ambito di procedimenti disciplinari nei loro confronti”, sottolinea. Con i rischi che possono derivare da una gestione scorretta di queste richieste “Oltre alle conseguenze sul fronte giuslavoristico, un soggetto interessato (in questo caso, il lavoratore) ha sempre la possibilità di effettuare una segnalazione all’Autorità Garante per la protezione dei dati”, spiega De Luca.

Continua a leggere la versione integrale pubblicata su La Repubblica.

Altri insights correlati:

Venerdì 26 aprile, Alberto De Luca ha partecipato in qualità di relatore alla conferenza “New World, New Wisdom” organizzata dall’Inter-Pacific Bar Association (IPBA), discutendo dei principali argomenti relativi ai recenti sviluppi e alle recenti tendenze nel campo dell’intelligenza artificiale e all’impatto di quest’ultima nel mondo delle risorse umane, durante il panel  “LLaMA2, Bard, ChatGPT and Co. – just tech talk acronyms or serious drivers for (positive) change in HR?” (“LLaMA2, Bard, ChatGPT and Co. – solo acronimi tecnologici o seri driver per un cambiamento (positivo) nelle risorse umane?”).

FOCUS

Cosa c’è di nuovo nell’intelligenza artificiale e nel mondo del diritto del lavoro, e in che modo i paesi e le aziende affrontano le minacce e le opportunità indotte dall’IA a livello normativo/giurisdizionale? Il panel ha trattato dei recenti sviluppi e delle recenti tendenze nel campo dell’IA, del suo impatto sul ciclo eHR dei nostri clienti dall’assunzione al licenziamento e del relativo quadro normativo giuslavoristico (attuale e imminente) in materia di IA.

Insieme al moderatore, tra gli altri argomenti discussi, i relatori esploreranno l’impatto dei sistemi basati sull’IA nel rapporto di lavoro, con l’obiettivo di identificare i rischi e le opportunità derivanti dall’IA, anche alla luce dell’Artificial Intelligence Act (Legge sull’IA) dell’UE recentemente emanato.

Clicca su questo link per saperne di più sulla conferenza.