Les données sont devenues le nouveau pétrole et leur rôle est susceptible de s’accroître encore à mesure que le numérique devient plus central dans nos vies. Avec des conséquences non négligeables sur la vie privée, comme le souligne Vittorio De Luca, fondateur du cabinet d’avocats De Luca & Partners. « Le législateur européen est intervenu de manière significative dans ce domaine au cours des dernières années, mais au niveau des entreprises, le tableau reste diversifié entre les réalités qui ont mis en œuvre et structuré de véritables modèles internes de conformité et qui, au fil du temps, ont réussi à changer la culture et la sensibilité de tous ceux qui composent l’organisation, et les autres qui continuent à considérer la protection des données comme un coût commercial plutôt que comme un investissement », souligne-t-il.
Les règlementations en matière de protection des données et de droit du travail sont désormais étroitement liées, et pas seulement en ce qui concerne le traitement des données relatives aux ressources humaines.« De plus en plus souvent, nous aidons les entreprises à traiter correctement les demandes d’accès aux documents et aux dossiers personnels qui sont – légitimement – présentées par des travailleurs dans le cadre de procédures disciplinaires engagées à leur encontre », souligne-t-il également. Avec les risques liés à une mauvaise gestion de ces demandes « Outre les conséquences sur le plan du droit du travail, une personne concernée (dans ce cas, l’employé) a toujours la possibilité d’émettre un signalement auprès de l’autorité chargée de la protection des données », explique M. De Luca.
Lire la version intégrale publiée dans La Repubblica.
Autres informations connexes :
Dans un contexte où la technologie progresse rapidement, l’intelligence artificielle (également connue sous l’acronyme anglais A.I.) révolutionne le paysage du travail mondial, agissant comme le moteur de profonds changements et ouvrant des horizons jusqu’alors totalement inconnus.
Le monde du droit est donc appelé, une fois de plus, à réglementer de nouveaux scénarios qui ne répondent pas aux paradigmes juridiques traditionnels connus à ce jour. La première étape à cet égard vient de l’Union européenne. En effet, sur le site internet du Parlement européen, on peut lire que « dans le cadre de sa stratégie numérique, l’UE souhaite réglementer l’intelligence artificielle (IA) afin de garantir de meilleures conditions de développement et d’’utilisation de cette technologie innovante ». Ainsi, le 9 décembre 2023, la Commission, le Conseil et le Parlement sont parvenus à un accord politique sur le contenu de ce que l’on appelle « Loi sur l’IA », proposé par la Commission en 2021, que les techniciens sont aujourd’hui en train de traduire par une proposition de texte définitive.
La priorité du législateur européen est de s’assurer que les systèmes d’IA utilisés sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.
Il existe donc une prise de conscience, même au niveau réglementaire, du fait que l’IA (i) est le moteur d’un changement qui soulève des questions éthiques, sociales et juridiques concernant son utilisation et les conséquences connexes et (ii) représente l’un des défis les plus importants et les plus complexes auxquels les entreprises sont confrontées.
C’est précisément sur ce dernier point qu’il semble donc approprié que les organisations se préparent à faire face à la profonde transformation qui se produit, plus ou moins silencieusement, dans le monde du travail.
L’utilisation d’une technologie qui collecte des informations de manière autonome, les traite, en tire des conclusions ou prend des décisions, contribue à la rapidité avec laquelle les performances peuvent être réalisées ; améliore l’efficacité opérationnelle et réduit les erreurs dans les activités de routine ; a un impact sur les besoins en personnel d’une organisation commerciale ou, encore, a une incidence sur la mesure des performances d’une ressource humaine.
Si, d’une part, cela représente une excellente opportunité de rendre les processus d’entreprise plus rapides, plus fiables et moins chers, d’autre part, plusieurs problèmes se profilent. Parmi de tels problèmes, pour ce qui nous concerne ici, nous souhaitons souligner (i) les biais et (ii) le risque d’un contrôle intensif de la part de l’employeur.
La technologie, bien qu’artificiellement intelligente, est programmée par des êtres humains et, en tant que telle, peut donc être affectée par les préjugés de ses programmeurs, reflétant et amplifiant les erreurs présentes dans les informations traitées.
Telle que nous la connaissons aujourd’hui, en effet, l’IA générative est programmée pour apprendre et (s’auto-)entraîner afin de s’améliorer au fil du temps, et cela également sur la base des informations qui lui sont transmises. Le risque de réplication des biais est donc très élevé.
En outre, l’IA fournit et traite une quantité inimaginable de données et est également capable (directement ou indirectement) de permettre un contrôle à distance intensif des employés.
Cela dit, dans le système juridique italien, le contrôle à distance est réglementé en détail et autorisé uniquement selon des modalités et en présence de conditions strictes prévues par la loi, y compris le plein respect des dispositions relatives à la protection des données. Cette question joue un rôle fondamental évident en matière d’IA.
Continuez à lire la version complète publiée sur AIDP.