Dans un contexte où la technologie progresse rapidement, l’intelligence artificielle (également connue sous l’acronyme anglais A.I.) révolutionne le paysage du travail mondial, agissant comme le moteur de profonds changements et ouvrant des horizons jusqu’alors totalement inconnus.
Le monde du droit est donc appelé, une fois de plus, à réglementer de nouveaux scénarios qui ne répondent pas aux paradigmes juridiques traditionnels connus à ce jour. La première étape à cet égard vient de l’Union européenne. En effet, sur le site internet du Parlement européen, on peut lire que « dans le cadre de sa stratégie numérique, l’UE souhaite réglementer l’intelligence artificielle (IA) afin de garantir de meilleures conditions de développement et d’’utilisation de cette technologie innovante ». Ainsi, le 9 décembre 2023, la Commission, le Conseil et le Parlement sont parvenus à un accord politique sur le contenu de ce que l’on appelle « Loi sur l’IA », proposé par la Commission en 2021, que les techniciens sont aujourd’hui en train de traduire par une proposition de texte définitive.
La priorité du législateur européen est de s’assurer que les systèmes d’IA utilisés sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.
Il existe donc une prise de conscience, même au niveau réglementaire, du fait que l’IA (i) est le moteur d’un changement qui soulève des questions éthiques, sociales et juridiques concernant son utilisation et les conséquences connexes et (ii) représente l’un des défis les plus importants et les plus complexes auxquels les entreprises sont confrontées.
C’est précisément sur ce dernier point qu’il semble donc approprié que les organisations se préparent à faire face à la profonde transformation qui se produit, plus ou moins silencieusement, dans le monde du travail.
Automatisation des activités répétitives, fiabilité de la mesure des performances et contrôle des besoins en personnel : l’IA est-elle un talent dont on doit chanter les louanges ?
L’utilisation d’une technologie qui collecte des informations de manière autonome, les traite, en tire des conclusions ou prend des décisions, contribue à la rapidité avec laquelle les performances peuvent être réalisées ; améliore l’efficacité opérationnelle et réduit les erreurs dans les activités de routine ; a un impact sur les besoins en personnel d’une organisation commerciale ou, encore, a une incidence sur la mesure des performances d’une ressource humaine.
Si, d’une part, cela représente une excellente opportunité de rendre les processus d’entreprise plus rapides, plus fiables et moins chers, d’autre part, plusieurs problèmes se profilent. Parmi de tels problèmes, pour ce qui nous concerne ici, nous souhaitons souligner (i) les biais et (ii) le risque d’un contrôle intensif de la part de l’employeur.
La technologie, bien qu’artificiellement intelligente, est programmée par des êtres humains et, en tant que telle, peut donc être affectée par les préjugés de ses programmeurs, reflétant et amplifiant les erreurs présentes dans les informations traitées.
Telle que nous la connaissons aujourd’hui, en effet, l’IA générative est programmée pour apprendre et (s’auto-)entraîner afin de s’améliorer au fil du temps, et cela également sur la base des informations qui lui sont transmises. Le risque de réplication des biais est donc très élevé.
En outre, l’IA fournit et traite une quantité inimaginable de données et est également capable (directement ou indirectement) de permettre un contrôle à distance intensif des employés.
Cela dit, dans le système juridique italien, le contrôle à distance est réglementé en détail et autorisé uniquement selon des modalités et en présence de conditions strictes prévues par la loi, y compris le plein respect des dispositions relatives à la protection des données. Cette question joue un rôle fondamental évident en matière d’IA.
Continuez à lire la version complète publiée sur AIDP.