Organisé en partenariat avec Cornerstone France, cet événement FO-Cadres – le premier du genre sur un sujet encore trop souvent ignoré par les organisations syndicales – a permis de lever le voile sur les enjeux et les risques de l'utilisation des algorithmes prédictifs, mais aussi de débattre des voies et moyens pour s'assurer d'une régulation de leur emploi dans le monde du travail. Une problématique qui ne doit pas échapper au dialogue social et à la négociation collective. La protection de la vie privée des salariés, la lutte contre les risques de discrimination et d'exclusion ainsi que les dangers d'une déresponsabilisation humaine dans la prise de décision sont des affaires trop sérieuses pour les abandonner aux mains des responsables informatiques.
 
 
La multiplication des données induite par la transformation numérique bouleverse la vie en entreprise. Comment faire pour que la promesse de rationalisation n'abolisse pas les protections des salariés ? Un colloque de FO-Cadres a fait le point sur ces questions.



« Big data », « algorithmes »… : ces termes qui apparaissent de façon de plus en plus récurrente dans le débat public fleurent bon les films de science-fiction, façon Matrix ou Minority Report. « Selon un sondage Ifop, près de 80 % des Français ont entendu parler des algorithmes, mais plus de la moitié ne savent pas de quoi il s'agit ou pensent qu'ils désignent des programmes dangereux », a rappelé Éric Pérès, secrétaire général de FO-Cadres, en ouverture du colloque « Big data et RH : les algorithmes en débat ». D'autres intervenants viendront, à sa suite, expliquer que les algorithmes sont en fait l'ensemble des méthodes intervenant pour toute espèce de calcul, notamment tel qu'il est pratiqué dans le traitement informatisé de données, sans cesse plus volumineuses de nos jours.
Certes, « pour le moment, très peu d'entreprises recourent à des algorithmes dans le domaine de la gestion des ressources humaines et du management », a souligné François Geuze, expert ès RH et maître des débats. Mais la mutation gagne du terrain, poussée par des besoins soulignés par Sabine Frantz, DRH à l'Association pour l'emploi des cadres, qui évoque « un million de profils dans les bases de l'Apec » – « une taille critique qui pose des difficultés pour enregistrer et traiter ensemble les données ». Travailler, trier et corréler au sein d'une telle masse d'informations requiert des algorithmes puissants, tels ceux mis au point par Cornerstone. Le directeur général Europe de cet éditeur de solutions informatiques, Vincent Belliveau, assure qu'« ils apportent une forme de recommandation aux RH, une aide dans les tâches de la vie de tous les jours ». Avant tout un support pour dénicher le meilleur CV ou pour identifier les besoins de chacun dans l'entreprise : en somme, une assistance mise au service de la décision.

Principe de finalité

Tout irait donc pour le mieux dans le meilleur des mondes ? À voir. Éric Pérès a ainsi rappelé que « la technologie n'est jamais neutre ; elle est toujours mise au service d'une logique économique et sociale : dans certaines entreprises, des logiciels peuvent notamment être mis au point pour débusquer les salariés “toxiques” ». Et de citer cet exemple réel d'une tablette remise aux cadres d'une entreprise, sur laquelle il était impossible de désactiver la fonction géolocalisation… Pour échapper à la vision orwellienne d'un contrôle des moindres faits et gestes des salariés, il est, aux yeux du secrétaire général de FO-Cadres, important de rendre des comptes et d'introduire du collectif, en informant les IRP de l'usage et de la finalité de l'analyse de données.

Que dit justement la loi à ce sujet ? « Les principes de la loi Informatique et libertés de 1978 s'appliquent au big data », a détaillé Wafae El Boujemaoui, en charge des affaires sociales à la Cnil. « Ce qui domine, c'est le principe de finalité : à quoi va servir le traitement des données que l'on va mettre en place ? S'il s'agit d'améliorer le recrutement ou la gestion du personnel, ce n'est pas forcément un problème en soi, mais il faut en avertir les personnes, et mettre en place des garde-fous : on ne peut par exemple collecter que des informations qui ont un lien avec le poste à pourvoir. » En outre, un arrêté de la Cnil datant de 2002 stipule qu'aucune sélection de candidature ne peut se fonder uniquement sur un traitement automatisé, et qu'elle doit dans tous les cas pouvoir être justifiée.

Mais ce rappel à la seule boussole de la finalité sera-t-il suffisant face à la puissance des outils, et à leur capacité à mettre en relation la foule de data disponibles ? Éric Pérès rappelait la tentation qu'ont les entreprises de pratiquer « la pêche au chalut », autrement dit « la récolte d'un maximum de données, avant de se poser seulement dans un second temps la question de leur finalité ». En outre surgit la question de la standardisation incluse par le traitement des données : la sélection automatisée de schémas ou de profils qui ont déjà fait leurs preuves risque de bannir tout ce qui est nouveau et atypique. Et puis qui maîtrise ce qui se déroule dans la « petite boîte noire », capable en outre de faire preuve d'auto-apprentissage ? « Avec quoi va-t-on nourrir la machine ? », s'est interrogé en écho Bruno Lamard, DSI à l'Apec, qui pointe un risque : « Si on ne maîtrise plus les entrées, attention à ce qui va en sortir !» Pour Sacha Gajcanin, fondateur de la start-up Eminove, « il va falloir se poser en amont la question de la responsabilité de nos actes : instaurer des espaces de débat dans les entreprises, prendre le temps de se pencher sur des enjeux éthiques ». Il faudra instaurer de la responsabilité et une « auto-limitation », mettre en place des lignes rouges à ne pas franchir, par exemple à l'égard de données issues de la médecine du travail.

Indépassable élément humain

De toute façon, a souligné le sociologue Antonio Casilli, « l'humain est un élément qu'on ne peut éliminer, les algorithmes d'intelligence artificielle nécessitant beaucoup de petites mains pour pouvoir apprendre ». Ces petites mains, ce sont les « micro-tâcherons » de l'économie numérique, invisibles et souvent mal-payés. « Les galériens du numérique », comme les appellera en écho Jean-Claude Mailly. Le secrétaire général de FO a d'ailleurs fait valoir la nécessité, pour les syndicats, de se tourner vers les travailleurs de l'uberisation, souvent situés dans une zone grise sur le plan social.

Sous ces atours d'automation croissante, l'activité numérique demeure ainsi le fruit d'une suite de décisions humaines, à tous les niveaux. Le juge Jean de Maillard, secrétaire général adjoint de FO-Magistrats, a quant à lui tenté d'extrapoler l'utilisation d'algorithmes à un domaine relevant peut-être plus qu'aucun autre du discernement humain : l'exercice de la justice. « Le juge doit pouvoir utiliser les algorithmes comme une aide à la décision, par la sélection des éléments », a-t-il estimé, en rappelant que « trouver les lois qui s'appliquent dans telle ou telle situation n'est pas chose facile ». Le logiciel peut se révéler utile pour réunir divers éléments, tout en laissant la particularité du cas à l'appréciation du juge. Là encore, tout est question d'usage maîtrisé, qui ne se substitue pas à la décision humaine. « N'ayez pas peur ! », a lancé Jean de Maillard en conclusion de son intervention. « Nous sommes au début d'un processus, induisant un sentiment de dépossession. Mais, inévitablement, le système viendra à maturité : il faut y réfléchir avec sérénité et intelligence. » En somme, faire émerger cette fameuse intelligence de la donnée que nombre d'experts appellent de leurs vœux !