L’intelligenza artificiale in azienda comporta rischi relativi alla sicurezza dei dati e alla protezione del know-how. Le organizzazioni necessitano di policy adeguate per garantire un utilizzo etico e conforme alla normativa

Quando un dipendente ricorre a sistemi di intelligenza artificiale – spesso generativa – per svolgere le proprie attività lavorative potrebbe, in maniera più o meno consapevole, condividere con soggetti esterni, e quindi non autorizzati, know-how aziendale e informazioni personali.

Intelligenza artificiale in azienda: definizione e diffusione

Vale, innanzitutto, la pena precisare che l’Intelligenza Artificiale generativa è una tipologia di tecnologia che impara dai contenuti esistenti per generarne di nuovi in base alle specifiche richieste del suo interlocutore (umano).

Negli ultimi anni, l’I.A. generativa è entrata nel quotidiano e il mondo del lavoro non ne è stato esente. Accade infatti con sempre maggior frequenza che i lavoratori utilizzino tali tecnologie per portare a termine le proprie attività e nel farlo immettano nei sistemi informazioni aziendali, anche sensibili, know-how aziendale ovvero dati personali e particolari. Spesso le aziende non sono informate o non sono consapevoli di tali pratiche e rischiano di essere esposte a importanti rischi – anche dal punto di vista della cybersicurezza – senza neppure esserne coscienti.

I rischi dell’intelligenza artificiale in azienda, spiegati dall’IA

Nel tentativo di rispondere a questo quesito, abbiamo voluto interpellare una delle parti direttamente coinvolte. Di seguito, per punti, i principali red flag legati all’adozione di I.A. generativa che lei stessa ci ha segnalato.

Secondo l’I.A., acconsentire a che i lavoratori utilizzino queste tecnologie potrebbe comportare per una società:

  • problematiche connesse alla governance e alla gestione della sicurezza informatica;
  • violazioni delle norme in materia di protezione dei dati personali;
  • commissione di comportamenti discriminatori derivanti dai pregiudizi (bias) contenuti nei dati con cui è stata addestrata;
  • eccessiva dipendenza dei lavoratori all’intelligenza artificiale che, nei casi più gravi, potrebbe causare un pericolo di riduzione delle capacità decisionali e critiche tipiche dell’essere umano.

Tutti spunti interessanti ai quali non si può non aggiungere anche il rischio di divulgazione di know-how aziendale e quindi di dispersione di informazioni sensibili per una azienda.

Protezione dell’azienda nell’era dell’intelligenza artificiale

Da queste brevi considerazioni, sorge spontaneo domandarsi come una società possa quindi proteggersi da tutti i rischi connessi ad un uso generalizzato, diffuso e non controllato dell’I.A. generativa da parte dei lavoratori.

In uno scenario che può intimorire e creare scetticismo, certamente la soluzione non può essere quella di impedire l’utilizzo di tali tecnologie che, al contrario, rappresentano sempre più un elemento per rimanere competitivi e contribuiscono allo sviluppo dell’azienda ma anche alla crescita delle sue risorse (umane).

Fondamentale diventa quindi imparare a farne un uso etico e consapevole.

Linee guida per l’intelligenza artificiale in azienda

  • È fondamentale non permettere che i dipendenti ricorrano all’I.A. senza regolamentarne internamente l’utilizzo e fornire loro specifici training, linee guida e best practices. Investire in formazione, in sistemi di sicurezza solidi e in politiche di gestione del cambiamento per garantire che l’adozione dell’I.A. porti vantaggi reali senza però compromettere la sicurezza, l’integrità o la cultura aziendale è una esigenza di primaria importanza.

Continua a leggere la versione integrale pubblicata su Agenda Digitale.

L’implementazione di sistemi IA in ambito lavorativo solleva preoccupazioni sulla discriminazione indiretta. I tribunali italiani evidenziano come gli algoritmi possano perpetuare pregiudizi esistenti, compromettendo i diritti fondamentali dei lavoratori.

L’introduzione di sistemi basati sull’intelligenza artificiale (IA) nei contesti lavorativi sta rivoluzionando i processi aziendali, consentendo alle imprese di ottenere significativi vantaggi in termini di efficienza, precisione e produttività, anche nella gestione e organizzazione della propria forza lavoro.

Il principio di non discriminazione in ambito lavorativo

L’adozione di tali strumenti, tuttavia, pone diverse questioni critiche, e deve misurarsi necessariamente con il rispetto del principio di non discriminazione in ambito lavorativo.

Questo principio, come noto, tutela i lavoratori contro ogni forma di discriminazione, sia diretta che indiretta, basata su genere, razza o origine etnica, religione, disabilità, età, adesione ad associazioni sindacali, partecipazione a scioperi, e così via. Si tratta di una tutela che si estende a ogni fase del rapporto di lavoro, a partire dall’accesso all’occupazione, fino alla gestione del rapporto stesso, incluse le condizioni di lavoro, l’avanzamento di carriera, la retribuzione e finanche le modalità di cessazione del rapporto di lavoro.

Il problema è cruciale in quanto gli algoritmi su cui si fondano i sistemi di IA, soprattutto se appartenenti al tipo “machine learning”, si basano sull’analisi di grandi quantità di dati per apprendere e assumere decisioni. Se però i dati utilizzati per il loro addestramento o funzionamento contengono pregiudizi di natura storica, statistica o sociale, l’algoritmo potrebbe replicarli, mettendo così a rischio i diritti fondamentali dei lavoratori.

Si tratta di una criticità evidenziata anche nel nuovo Regolamento Europeo n. 2024/1689, cd. “AI Act”, che entrerà in vigore dal prossimo 2 agosto 2026. In particolare, al considerando 31 del Regolamento il legislatore Europeo sottolinea che i sistemi di IA che permettono “di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all’esclusione di determinati gruppi” evidenziando, inoltre, come gli stessi sistemi possano “ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia”.

Le recenti pronunce giurisprudenziali in tema di IA e divieto di discriminazione

In Italia sono già diverse pronunce giurisprudenziali che hanno affrontato la problematica sotto diverse angolazioni, mettendo in luce i rischi connessi all’uso di algoritmi e sistemi decisionali nella gestione della forza lavoro.

La sentenza del Tribunale di Palermo

In particolare, il Tribunale di Palermo, con una sentenza del 17 novembre 2023, ha accertato la natura discriminatoria del sistema di valutazione di eccellenza utilizzato da una nota società di consegne a domicilio per l’assegnazione degli incarichi ai suoi corrieri.

La piattaforma utilizzata dalla società si basava, infatti, su un sistema noto come “punteggio di eccellenza” che premiava i corrieri più produttivi, ossia che effettuavano il maggior numero di consegne, e più affidabili, in quanto disponibili a lavorare assiduamente nelle fasce orarie ad alta richiesta, ossia negli orari serali o durante i giorni festivi, garantendo loro un accesso prioritario alla scelta della collocazione delle successive prestazioni.

Si veniva così a creare, però, una disparità di trattamento significativa rispetto ai lavoratori che non potevano soddisfare tali requisiti.

Continua a leggere la versione integrale pubblicata su Agenda Digitale.