Ce que le premier rapport mondial de l'OIT sur l'IA nous dit (et ce qu'il ne dit pas)

L'OIT vient d'adopter ses toutes premières conclusions sur l'IA dans le secteur manufacturier. Ce que ce rapport dit aux gouvernements et aux syndicats, c'est au dirigeant de le gérer dans son organisation, maintenant, sans attendre les cadres réglementaires. Décryptage des enjeux managériaux, juridiques et organisationnels pour les dirigeants de PME, ETI et établissements publics.

IAJURIDIQUEMANAGEMENTSTRATÉGIETECHNOLOGIE

people sitting beside rectangular brown table with laptops
people sitting beside rectangular brown table with laptops

Le 17 avril 2026, l'Organisation Internationale du Travail a adopté ses toutes premières conclusions sur l'intelligence artificielle dans le secteur manufacturier après cinq jours de discussions à Genève rassemblants des représentants gouvernementaux, des employeurs et des syndicats de 54 pays. Un texte de référence qui ne couvre pas moins de 500 millions de travailleurs dans le monde.

C'est un événement. Quand l'OIT formalise un cadre tripartite sur un sujet, c'est que la transformation n'est plus prospective : elle est en cours, à une échelle qui dépasse les frontières nationales et les intérêts sectoriels. Pour les dirigeants d'entreprises et d'établissements publics en France, ce signal mérite attention, non pas parce que les recommandations de l'OIT s'appliquent directement à leur organisation, mais parce qu'elles révèlent, en creux, l'ampleur et la nature des enjeux qu'ils gèrent déjà, souvent sans cadre établi.

Ce que le rapport dit réellement

Les conclusions de l'OIT posent un principe central : l'IA doit contribuer au travail décent, à la productivité et à une transition juste, et ne doit pas se développer en dehors de ces objectifs. Ce n'est pas une position anti-technologique, mais plutôt l'affirmation que la technologie ne peut pas être une fin en soi, et que son déploiement doit rester subordonné à des objectifs humains et organisationnels clairement définis.

Les recommandations s'articulent autour de six axes principaux, dont chacun soulève des questions concrètes pour le dirigeant qui n'attend pas les cadres réglementaires pour agir.

Le premier axe porte sur le développement des compétences et la formation tout au long de la vie. Le rapport reconnaît que l'IA transforme les qualifications requises à une vitesse que les systèmes de formation traditionnels peinent à suivre. Les conclusions recommandent d'anticiper les métiers qui émergent et de ne pas laisser les équipes face à une obsolescence non accompagnée. Pour le dirigeant, cela se traduit par une question immédiate : quels rôles dans son organisation sont réellement transformés dans les prochains mois, et qui porte la responsabilité de cette transition : la DRH, le manager intermédiaire, ou le dirigeant lui-même ?

Le deuxième axe concerne la création d'un environnement favorable pour que les entreprises tirent parti du potentiel de productivité de l'IA, en particulier les structures de taille intermédiaire qui n'ont pas les ressources des grands groupes pour absorber le coût de la transformation. C'est un enjeu que les décideurs publics traitent au niveau des politiques industrielles. Les dirigeants d'ETI et de PME le traitent au niveau du budget, des priorités opérationnelles, et des arbitrages qu'ils rendent chaque semaine — souvent sans avoir clarifié explicitement leur stratégie d'adoption.

Le troisième axe porte sur la garantie des droits fondamentaux au travail dans les environnements de production assistée par IA : liberté d'association, négociation collective, non-discrimination, sécurité et santé au travail. Ce point est particulièrement important parce que l'IA introduit de nouveaux outils de mesure et de suivi de la performance individuelle qui peuvent, s'ils ne sont pas encadrés, entrer en tension avec des droits établis de longue date. La frontière entre un outil de pilotage légitime et un dispositif de surveillance illicite est plus proche qu'elle n'en a l'air. Elle est rarement anticipée dans les projets de transformation numérique.

Le quatrième axe concerne les conditions de travail décentes dans un contexte où l'IA peut modifier le rythme, la nature et l'organisation du travail de façon significative. Parfois positivement, en réduisant les tâches pénibles et répétitives. Parfois de façon plus problématique, si la pression de performance augmente sans que les conditions humaines suivent. Cette ambivalence-là, le dirigeant doit la gérer concrètement, pas l'OIT.

Le cinquième axe concerne les cadres réglementaires. Les conclusions reconnaissent explicitement que les politiques et les modèles réglementaires peinent généralement à suivre l'évolution des systèmes d'IA, créant un vide dans lequel les entreprises opèrent aujourd'hui avec des responsabilités qui ne sont pas encore clairement définies par le droit. Ce vide n'est pas neutre : il crée des zones de risque que le dirigeant supporte, qu'il en soit conscient ou non.

Le sixième axe, enfin, porte sur le renforcement du dialogue social pour gérer la transformation. C'est ici qu'apparaît l'un des points les plus directement applicables : les conclusions établissent que les travailleurs doivent être informés, impliqués et consultés en temps opportun lorsque des systèmes d'IA susceptibles de les affecter sont introduits. Ce n'est pas une recommandation morale, c'est un principe de gestion du changement que des décennies d'expérience en transformation organisationnelle ont validé. Les transformations qui réussissent sont celles où les équipes ne subissent pas, mais participent. Et les organisations qui ont tenté de déployer des outils IA sans consultation préalable ont presque systématiquement rencontré des résistances qui ont coûté bien plus cher qu'une concertation en amont.

Ce que le rapport ne dit pas, et qui est pourtant essentiel

Le rapport s'adresse aux gouvernements, aux organisations patronales et aux syndicats. Il pose des cadres, des principes, des orientations pour les politiques publiques à l'échelle internationale. Ce qu'il ne fait pas, parce que ce n'est pas son rôle, c'est dire au dirigeant d'une entreprise comment gérer la conversation difficile avec le manager dont le rôle est en train de changer, comment arbitrer entre l'adoption d'un outil qui va gagner du temps et la résistance légitime d'une équipe qui y voit une menace, ou comment maintenir la cohérence de l'organisation pendant que les usages évoluent plus lentement que les outils.

Ces questions n'ont pas de cadre institutionnel. Elles ont un responsable : le dirigeant.

Les cadres réglementaires mettront des années à se stabiliser. Les conclusions de l'OIT elles-mêmes ne seront soumises à l'approbation du Conseil d'administration qu'en novembre 2026. Les organisations, elles, n'ont pas ce délai. L'IA entre dans les processus maintenant. Les rôles évoluent maintenant. Les équipes se posent des questions maintenant.

Ce décalage entre la temporalité institutionnelle et la temporalité organisationnelle crée un espace large dans lequel le dirigeant opère. Sans cadre établi. Avec des équipes qui attendent une direction. Et avec la responsabilité entière des choix qu'il fait pendant que les institutions délibèrent.

Ce que ça implique juridiquement : le point aveugle de la plupart des approches

C'est la dimension la moins traitée dans les accompagnements à la transformation IA, et pourtant l'une des plus structurantes pour le dirigeant : la transformation organisationnelle induite par l'IA a des implications juridiques concrètes, immédiates, et souvent sous-estimées.

Le premier enjeu concerne la surveillance et les données salariés. L'IA introduit des capacités de mesure et de suivi de la performance individuelle que le droit du travail français encadre strictement : consentement des salariés, principe de proportionnalité, information préalable des représentants du personnel. Des outils qui semblent neutres techniquement peuvent créer des situations d'illicéité si leur déploiement n'est pas anticipé juridiquement. La question n'est pas théorique : plusieurs entreprises françaises ont dû suspendre des déploiements IA après des contestations syndicales ou des mises en demeure de la CNIL, faute d'avoir intégré ces contraintes en amont.

Le deuxième enjeu concerne l'évolution des fiches de poste et des missions. Quand l'IA modifie substantiellement le contenu d'un poste - en retirant certaines tâches, en en ajoutant d'autres, en changeant les critères d'évaluation - cela peut constituer une modification du contrat de travail au sens du droit français, avec les obligations qui en découlent. Cette frontière est plus proche qu'elle n'en a l'air, et elle est rarement anticipée dans les projets de transformation numérique qui se concentrent sur les aspects techniques et organisationnels sans intégrer la dimension contractuelle.

Le troisième enjeu porte sur les obligations de consultation des instances représentatives du personnel. En France, l'introduction de technologies ayant un impact sur les conditions de travail déclenche des obligations précises : consultation du CSE, délais à respecter, informations à transmettre. Ces obligations existent indépendamment de la volonté du dirigeant, et leur non-respect expose à des risques contentieux qui peuvent bloquer le déploiement d'un projet entier, parfois après que l'investissement a déjà été réalisé.

Ces trois enjeux ne sont pas des obstacles à la transformation. Ce sont des paramètres à intégrer dès la conception du projet, pas après coup. Un accompagnement qui traite la dimension managériale sans la dimension juridique, ou la dimension juridique sans la dimension managériale, produit des angles morts qui coûtent cher.

Le secteur public face à la même transformation, avec des contraintes supplémentaires

Le rapport de l'OIT se concentre sur le secteur manufacturier. Mais les dynamiques qu'il décrit (transformation des compétences, évolution des rôles, nécessité d'un dialogue structuré avec les équipes) sont tout aussi présentes dans le secteur public, avec une couche de complexité supplémentaire que le secteur privé ne connaît pas dans les mêmes proportions.

Dans un établissement public, l'introduction de l'IA ne se fait pas dans un environnement où le dirigeant dispose d'une latitude décisionnelle totale. Il doit composer avec des contraintes statutaires qui encadrent l'évolution des postes et des missions : les agents publics disposent de protections que les salariés du secteur privé n'ont pas, et l'évolution de leurs missions obéit à des règles spécifiques qui ne se superposent pas aux mécanismes du droit du travail classique. Il doit également composer avec des processus de concertation sociale qui ne peuvent pas être contournés sans risque de blocage institutionnel, une culture organisationnelle souvent moins habituée à la transformation rapide, et une exposition médiatique et politique qui rend chaque décision structurante potentiellement visible et contestable.

Au-delà de ces contraintes opérationnelles, le secteur public fait face à une question que le secteur privé ne traite pas avec la même intensité : la légitimité de l'IA dans des décisions qui touchent des usagers, des administrés, des bénéficiaires de services publics. Utiliser des algorithmes pour orienter des décisions d'attribution de ressources, d'orientation ou d'évaluation soulève des enjeux d'équité, de transparence et de responsabilité démocratique qui dépassent le cadre de la performance organisationnelle.

La loi française encadre déjà partiellement ces usages : le droit à ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé existe, et les obligations de transparence algorithmique dans le secteur public sont réelles. Mais la frontière entre ce qui est permis, ce qui est encadré, et ce qui est interdit est loin d'être claire dans tous les cas d'usage. Et c'est le dirigeant qui l'assume, pas l'institution.

Ce que l'OIT appelle "approche centrée sur l'humain" prend dans ce contexte une dimension particulièrement exigeante : il ne s'agit pas seulement de s'assurer que les agents sont formés et consultés, mais de maintenir la confiance des usagers dans des institutions dont la mission première est de servir l'intérêt général avec des outils dont la logique probabiliste et optimisatrice est fondamentalement différente de celle du service public.

Ce que révèle l'approche de l'OIT sur la temporalité de la transformation

Il y a un enseignement indirect dans la méthode même de l'OIT qui mérite d'être nommé. Cinq jours de discussions tripartites pour aboutir à des conclusions qui seront encore soumises à validation en novembre 2026. C'est la temporalité des institutions : lente, prudente, construite pour durer et pour créer du consensus à l'échelle internationale.

Les organisations n'ont pas cette temporalité. Elles opèrent dans un environnement où les décisions d'adoption de l'IA se prennent en semaines, où les effets sur les équipes se manifestent en mois, et où les ajustements doivent être faits en continu, souvent avant que les données suffisantes soient disponibles pour décider avec certitude.

Ce décalage crée une réalité que beaucoup de dirigeants vivent sans l'avoir formulée clairement : ils pilotent déjà une transformation dont le cadre n'existe pas encore. Ils prennent des décisions sur des sujets (surveillance des performances, évolution des missions, dialogue avec les équipes) dont les implications juridiques, sociales et organisationnelles ne sont pas encore stabilisées.

C'est précisément dans cet espace que se joue la qualité du leadership face à l'IA. Pas dans la capacité à mettre en œuvre des recommandations institutionnelles, mais dans la capacité à prendre des décisions éclairées, cohérentes et assumées, avant que les cadres existent.

Chapman & Chapman : Accompagnement des dirigeants

Chapman & Chapman est un cabinet de conseil et de coaching fondé par Marc et Eve Chapman, dédié à l'accompagnement des dirigeants de PME, ETI et établissements publics.

Ce qui distingue notre approche dans le contexte de la transformation IA, c'est précisément ce que la plupart des accompagnements traitent séparément : la dimension managériale et la dimension juridique d'une même décision.

Marc Chapman accompagne les dirigeants sur la nature et la qualité de leurs décisions de transformation : comment définir ce qu'on veut réellement changer, comment embarquer les équipes de façon authentique, comment maintenir la cohérence de l'organisation pendant la transition, et comment arbitrer quand les certitudes manquent. Son approche repose sur une analyse approfondie avant toute intervention - parce qu'un accompagnement qui répond vite à de mauvaises questions coûte plus cher qu'il ne rapporte.

Eve Chapman intervient sur les implications juridiques concrètes de ces mêmes décisions : encadrement de la collecte et de l'utilisation des données salariés, obligations de consultation des instances représentatives, évolution des contrats de travail dans le cadre d'une transformation des missions, et anticipation des risques contentieux avant qu'ils ne deviennent des litiges.

Cette complémentarité n'est pas un argument de vente. C'est la réponse à une réalité que les dirigeants que nous accompagnons connaissent bien : dans une transformation organisationnelle, les décisions managériales et les implications juridiques ne se séparent pas. Les traiter séparément, c'est créer des angles morts qui coûtent cher.

Nous travaillons dans la durée, avec un engagement moral fort envers chaque client — parce que les transformations qui comptent ne se règlent pas en quelques sessions.

(Source : ILO adopts first-ever conclusions on AI in manufacturing work, avril 2026 — https://www.ilo.org/resource/news/ilo-adopts-first-ever-conclusions-ai-manufacturing-work)

[Prendre rendez-vous avec Chapman & Chapman]