L'IA éthique au travail : Utiliser la technologie sans perdre son jugement

Plus de 80 % des employés britanniques utilisent aujourd'hui l'IA générative au travail, mais moins de la moitié d'entre eux affirment que leur employeur a une vision claire de la manière dont elle devrait être utilisée. Le fossé entre l'adoption et la surveillance est l'endroit où se situe le véritable risque - et où un bon jugement devient indispensable.

Il existe une tension particulière au cœur du lieu de travail moderne. Les outils d'intelligence artificielle ont été adoptés à une vitesse extraordinaire - plus rapidement, selon la plupart des mesures, que n'importe quelle technologie sur le lieu de travail de mémoire d'homme. Pourtant, malgré tout cet enthousiasme, les cadres permettant de les utiliser correctement ont pris un retard considérable.

L'enquête EY 2025 Work Reimagined, menée auprès de 800 employés et 180 employeurs britanniques, a révélé que 83 % des employés britanniques utilisent désormais l'IA générative au travail. Mais la même enquête a révélé un décalage troublant : moins de la moitié de ces employés ont déclaré que leur organisation avait une vision claire de la manière dont l'IA devrait être déployée, et seulement 11 % ont déclaré avoir reçu une formation adéquate en matière d'IA. Par ailleurs, 43 % d'entre eux ont déclaré craindre qu'une dépendance excessive à l'égard de l'IA n'érode leurs compétences et leur expertise.

Ces chiffres décrivent quelque chose de plus qu'un problème d'adoption de la technologie. Ils décrivent un écart de jugement - un espace grandissant entre ce que les outils peuvent faire et ce que les personnes qui les utilisent comprennent quant au moment, à la manière et à l'opportunité de faire confiance aux résultats. Cet article traite de ce fossé : à quoi il ressemble dans la pratique, pourquoi il est important et ce que les professionnels et les organisations responsables peuvent faire pour le combler.

L'état du jeu : L'IA sur les lieux de travail britanniques en 2025

Pour comprendre pourquoi l'utilisation éthique de l'IA est passée d'une préoccupation de niche en matière de gouvernance à une priorité opérationnelle urgente, il est utile de saisir l'ampleur de ce qui s'est passé au cours des deux dernières années.

Le ministère de la science, de l'innovation et de la technologie du gouvernement britannique a publié une évaluation des capacités de l'IA et de leur impact sur le marché du travail britannique au début de l'année 2026. Les conclusions sont instructives. L'adoption de l'IA par les entreprises a plus que doublé depuis la fin de l'année 2023, bien que le rapport note que seule une entreprise sur cinq environ utilise actuellement l'IA ou prévoit de le faire. Au sein des entreprises qui ont adopté l'IA, moins d'un tiers des employés l'utilisent activement - ce qui suggère que l'adoption, même lorsqu'elle existe, reste parcellaire et inégalement répartie.

La situation change considérablement lorsque l'on s'intéresse aux grandes entreprises. Une enquête réalisée en 2025 par Moneypenny auprès de 750 décideurs britanniques a révélé que 39 % des entreprises britanniques utilisaient déjà l'IA sous une forme ou une autre, et que 31 % l'envisageaient sérieusement. Parmi les entreprises comptant entre 50 et 99 employés, seuls 3 % ont déclaré ne pas avoir l'intention d'adopter l'IA. Dans le secteur de l'informatique et des télécommunications, le taux d'adoption est de 93 %. Dans la finance, 83 %. Dans les ressources humaines, 76 %.

Les outils vers lesquels les gens se tournent sont désormais familiers : ChatGPT, Microsoft Copilot, Google Gemini, Claude, Grammarly et un écosystème croissant de plateformes sectorielles. Ils sont utilisés pour rédiger des courriels et des rapports, résumer des documents, générer des textes marketing, analyser des données, écrire du code et automatiser des tâches administratives répétitives. L'enquête d'EY a révélé que la plupart des utilisations restent limitées à des activités de base, axées sur les processus - recherche et résumé - et que moins de 5 % des employés exploitent l'IA de manière avancée pour transformer fondamentalement leurs pratiques de travail.

Ce qui est peut-être le plus révélateur, c'est le phénomène que l'on appelle l“”IA de l'ombre". Les données d'EY ont montré que 32 % des employés britanniques utilisaient des outils d'IA qui n'avaient pas été officiellement approuvés par leur employeur. Les gens n'attendent pas d'autorisation, de politique ou de formation. Ils expérimentent - parfois de manière responsable, parfois non - parce que les outils sont accessibles, que les gains de productivité sont immédiats et que l'encadrement institutionnel fait souvent défaut.

Ce que signifie réellement l'IA éthique - Au-delà des mots à la mode

L'expression “IA éthique” est devenue omniprésente dans les communications des entreprises, les documents de politique générale et les supports de marketing. Elle figure à l'ordre du jour des conférences et dans les rapports annuels. Mais dans de nombreuses organisations, elle reste frustrante et abstraite - un ensemble de principes qui sonnent bien mais qui offrent peu d'indications lorsque quelqu'un doit décider, à dix heures un mardi matin, s'il faut utiliser un résumé généré par l'IA dans un rapport destiné à un client.

Au fond, l'IA éthique n'est pas une caractéristique de produit ou un certificat de conformité. Il s'agit d'une pratique - un ensemble d'habitudes et de questions que les gens appliquent chaque fois qu'ils interagissent avec un système d'IA dans un contexte professionnel. L'Alan Turing Institute, l'institut national britannique pour la science des données et l'intelligence artificielle, a développé ce qu'il appelle le PBG Framework, conçu pour aider les équipes de projet à s'assurer que les technologies d'IA qu'elles construisent, achètent ou utilisent sont éthiques, sûres et responsables. Ce cadre s'applique à l'ensemble du cycle de vie d'un projet d'IA, de la conception au suivi en passant par le déploiement.

Le manuel de l'IA du gouvernement britannique, mis à jour en février 2025, résume le défi en neuf principes. Parmi les plus pertinents pour l'utilisation quotidienne sur le lieu de travail : vous devez savoir ce qu'est l'IA et quelles sont ses limites ; vous devez utiliser l'IA de manière légale, éthique et responsable ; vous devez disposer d'un contrôle humain significatif aux étapes appropriées ; et vous devez utiliser l'outil adéquat pour le travail. Ces principes ont été rédigés principalement pour le secteur public, mais ils s'appliquent avec la même force à toute organisation ou personne utilisant des outils d'IA dans un cadre professionnel.

L'Organisation internationale du travail, dans une étude de 2025 sur les lignes directrices mondiales en matière d'éthique de l'IA, a identifié cinq principes fondamentaux qui apparaissent dans la grande majorité des cadres au niveau mondial : la bienfaisance (l'IA doit promouvoir le bien-être humain), la non-malfaisance (elle ne doit pas causer de dommages), l'autonomie (elle doit préserver le pouvoir de décision humain), la justice (ses avantages doivent être équitablement répartis) et l'explicabilité (ses rouages doivent être transparents et responsables). L'OIT a toutefois noté que si la convergence éthique autour de ces principes est encourageante, le lien entre les lignes directrices en matière d'éthique de l'IA et les réalités pratiques du monde du travail reste ténu. En d'autres termes, les principes sont là. La mise en œuvre ne l'est pas.

Pour le professionnel, l'utilisation éthique de l'IA se résume à une série de questions faussement simples. Est-ce que je comprends ce que cet outil fait réellement ? Puis-je vérifier ce qu'il a produit ? Suis-je à l'aise avec l'idée d'être responsable des résultats obtenus ? Serais-je prêt à expliquer à un collègue, à un client ou à une autorité de régulation que je m'appuie sur cet outil ? Si la réponse à l'une de ces questions est négative, c'est un signal - pas nécessairement pour arrêter, mais pour ralentir et réfléchir plus attentivement.

Le problème de l'hallucination : quand l'IA se trompe lourdement

De tous les risques liés à l'utilisation de l'IA au travail, l'hallucination est peut-être le plus insidieux, précisément parce qu'il est invisible pour l'utilisateur non averti.

Les hallucinations de l'IA se produisent lorsqu'un grand modèle de langage génère des informations fausses, trompeuses ou entièrement fabriquées, mais les présente avec le même ton confiant et autoritaire que des informations exactes. Le modèle ne ment pas au sens propre du terme. Il fait ce pour quoi il a été conçu : prédire le mot suivant le plus probable statistiquement dans une séquence en se basant sur des modèles appris à partir de données d'entraînement. Le problème est que la probabilité statistique et l'exactitude des faits ne sont pas la même chose.

Les conséquences peuvent être graves. Dans la désormais célèbre affaire Mata v. Avianca aux États-Unis, un avocat s'est appuyé sur ChatGPT pour effectuer des recherches juridiques et a soumis à un tribunal fédéral un dossier contenant de nombreuses citations fabriquées - des affaires qui n'existaient pas, avec des citations qui avaient été inventées de toutes pièces. Le juge a sanctionné l'avocat, et l'affaire est devenue un récit édifiant qui a fait écho dans la profession juridique du monde entier.

C'était en 2023. En 2025, le problème n'a pas disparu - il est simplement devenu plus nuancé. Des recherches menées par des universitaires de Stanford et de Yale ont révélé que même les outils d'IA spécifiques à un domaine et conçus pour la recherche juridique produisaient encore des hallucinations dans 17 à 34 % des cas, en particulier lorsqu'il s'agissait de citer des sources et de répondre à des prémisses incorrectes de l'utilisateur. Une étude Deloitte réalisée en 2024 a révélé que 38 % des dirigeants d'entreprise ont déclaré avoir pris des décisions incorrectes sur la base de résultats d'IA hallucinés.

Risque élevé

Sources fabriquées

L'IA cite des études, des cas ou des statistiques qui n'existent pas - présentés en toute confiance, avec des auteurs et des noms de journaux plausibles.

Prévalence 17-34% taux d'hallucination dans les outils d'intelligence artificielle juridique spécifiques à un domaine
Risque moyen

Imprécisions subtiles

Les résultats qui sont pour la plupart corrects mais qui contiennent de petites erreurs factuelles - une date erronée, un chiffre incorrect, une citation mal attribuée - qu'il est facile de ne pas remarquer lors d'une lecture superficielle.

Prévalence Moyenne 3-9% taux d'hallucination dans les principaux modèles
Risque structurel

Un non-sens plausible

Des résultats qui font autorité et qui sont bien structurés, mais qui n'ont aucun sens sur le fond - l'IA génère un langage fluide sans véritable compréhension.

Impact 38% des cadres déclarent avoir pris des décisions sur la base de résultats hallucinés
Risque lié à la confiance

Confirmation des fausses prémisses

Lorsque les utilisateurs posent des questions suggestives, les modèles d'IA se rallient souvent à des hypothèses incorrectes au lieu de les corriger, ce qui renforce les erreurs.

Impact 83% des dirigeants confondent confiance en l'IA et précision

La leçon pratique est simple mais mérite d'être répétée : Le contenu généré par l'IA doit être vérifié. Cette vérification n'est pas facultative et n'est pas un signe de méfiance à l'égard de la technologie. Il s'agit d'une norme minimale de diligence professionnelle. Chaque affirmation, chaque statistique, chaque citation, chaque affirmation factuelle issue d'un outil d'IA générative doit être traitée comme une ébauche - un point de départ qui nécessite un examen humain avant d'être présenté comme le travail d'un professionnel compétent.

Biais et points aveugles : Les distorsions invisibles

Si l'hallucination est le mode d'échec le plus visible de l'IA, le biais est sans doute le plus lourd de conséquences - parce qu'il est systémique, difficile à détecter et qu'il peut s'étendre avec une efficacité dévastatrice.

Les modèles d'IA apprennent à partir de données créées par des humains, et ces données comportent les préjugés des sociétés qui les ont produites. Il ne s'agit pas d'une préoccupation théorique. Le projet Gender Shades, dirigé par la chercheuse Joy Buolamwini au MIT, a démontré que les systèmes commerciaux de reconnaissance faciale présentaient d'importantes disparités de précision en fonction du sexe et de la couleur de peau. Les systèmes fonctionnaient bien pour les hommes à la peau claire et nettement moins bien pour les femmes à la peau plus foncée, ce qui a incité les grandes entreprises technologiques à revoir leurs modèles et, dans certains cas, à retirer complètement leurs produits du marché.

Sur le lieu de travail, les préjugés se manifestent de manière plus subtile, mais non moins dommageable. On a constaté que les outils d'IA utilisés pour le recrutement favorisaient certains modèles dans les CV - pénalisant les lacunes dans l'emploi (qui affectent de manière disproportionnée les femmes et les soignants), favorisant les candidats de certaines universités, ou évaluant plus fortement que d'autres les modèles de langage associés à des milieux culturels particuliers. Les systèmes d'IA utilisés pour l'évaluation des performances, l'attribution de notes de crédit ou la segmentation de la clientèle peuvent perpétuer et amplifier les inégalités existantes, non pas parce qu'ils sont délibérément discriminatoires, mais parce que les données qu'ils ont apprises reflètent un monde qui l'est.

Le Centre pour l'éthique et l'innovation en matière de données du Royaume-Uni a clairement indiqué que la lutte contre les préjugés ne se résume pas à des solutions techniques. Il faut une culture de la sensibilisation - des équipes suffisamment diversifiées pour détecter les angles morts, des processus qui prévoient des audits réguliers et des dirigeants qui comprennent que les gains d'efficacité de l'IA ne doivent jamais se faire au détriment de l'équité. La Commission de l'égalité et des droits de l'homme a indiqué que les décisions fondées sur l'IA qui aboutissent à des résultats discriminatoires peuvent relever de la législation existante en matière d'égalité, que la discrimination ait été intentionnelle ou non.

Pour tout professionnel utilisant l'IA pour rédiger des contenus, analyser des données ou éclairer des décisions, cela signifie qu'il faut se demander : quel est le point de vue intégré dans ce résultat ? Quelle est l'expérience manquante ? Et les conclusions seraient-elles différentes si les données de formation avaient été différentes ?

La question de la souveraineté des données : Où vont vos données ?

Lorsque vous tapez un message dans un outil d'IA générative, vous ne vous contentez pas de poser une question dans le vide. Vous transmettez des données - parfois très sensibles - à un serveur, souvent situé à des milliers de kilomètres, exploité par une entreprise dont les pratiques en matière de données peuvent être régies par des cadres juridiques très différents des vôtres.

Il s'agit de la question de la souveraineté des données, qui est passée des marges du débat sur l'IA à son centre. Les responsables politiques européens ont averti à plusieurs reprises que la dépendance du continent à l'égard d'une poignée d'entreprises technologiques américaines pour les infrastructures de cloud et les services d'IA créait des vulnérabilités structurelles. La loi sur l'intelligence artificielle de l'UE, qui est entrée en vigueur par étapes en 2024 et 2025, a établi un cadre réglementaire fondé sur le risque destiné à garantir que les systèmes d'IA sont sûrs, transparents et respectueux des droits fondamentaux. Le Royaume-Uni, qui a quitté l'Union européenne, a choisi une voie différente : une approche sectorielle fondée sur des principes qui donne aux régulateurs tels que l'ICO, la FCA et l'Ofcom la flexibilité nécessaire pour appliquer la gouvernance de l'IA dans le cadre de leurs mandats existants.

Mais quel que soit le modèle réglementaire, la préoccupation sous-jacente est la même. Lorsqu'un avocat britannique utilise un outil d'IA hébergé aux États-Unis pour rédiger un mémoire confidentiel, où ces données sont-elles stockées ? Qui y a accès ? Pourraient-elles être utilisées pour former de futurs modèles ? Pourraient-elles être exigées en vertu des lois sur la surveillance étrangère ? Ces questions ne sont pas hypothétiques. Il s'agit des réalités pratiques de l'utilisation de services d'IA basés sur le cloud dans un contexte professionnel, et elles exigent des réponses que de nombreuses organisations n'ont pas encore fournies.

Le règlement général sur la protection des données et la législation britannique sur la protection des données imposent des obligations en matière de traitement des données à caractère personnel, y compris des exigences en matière de transparence, de base légale et, dans certains cas, d'évaluation de l'impact sur la protection des données pour les déploiements de l'IA. L'ICO a clairement indiqué que l'IA n'exempte pas les organisations de leurs obligations en matière de protection des données. Au contraire, l'opacité des systèmes d'IA rend ces obligations plus contraignantes, et non moins contraignantes.

Étude de cas : Infomaniak et l'alternative européenne

Le défi de la souveraineté des données a donné naissance à un écosystème croissant de fournisseurs qui tentent d'offrir des outils d'IA qui conservent les données dans les juridictions européennes, dans les cadres juridiques européens, et avec des modèles de gouvernance qui donnent la priorité à la protection de la vie privée dès la conception plutôt qu'après coup.

L'un des exemples les plus instructifs est celui d'Infomaniak, un fournisseur de cloud suisse qui, en décembre 2025, a lancé Euria, un assistant d'intelligence artificielle construit sur des bases fondamentalement différentes de celles des plateformes américaines dominantes. Euria est entièrement hébergé dans les centres de données d'Infomaniak en Suisse, conformément au GDPR et à la loi fédérale suisse sur la protection des données. Elle n'utilise pas les données des clients pour entraîner ses modèles. Et pour les cas d'utilisation particulièrement sensibles - notes cliniques, projets juridiques, documents administratifs confidentiels - elle propose un “mode éphémère” dans lequel aucune donnée n'est stockée, aucun journal n'est conservé et rien ne peut être récupéré, même par Infomaniak elle-même.

Marc Oehler, PDG d'Infomaniak, a décrit cette philosophie de manière succincte : “Euria a été conçu pour que la protection de la vie privée devienne une réalité et non une promesse marketing. Les données ne quittent jamais nos centres de données en Suisse et ne servent qu'à fournir le service demandé par l'utilisateur”. L'entreprise avertit explicitement les utilisateurs qu'aucune IA n'est infaillible et les encourage à vérifier les résultats avant de s'y fier dans des contextes à fort enjeu - une position honnête et rafraîchissante sur un marché qui surestime souvent les capacités de l'IA.

Ce qui rend Infomaniak particulièrement intéressante en tant qu'étude de cas, c'est qu'elle démontre que les choix éthiques peuvent aller au-delà du traitement des données et s'étendre à la responsabilité environnementale. L'entreprise exploite un centre de données à Genève conçu pour récupérer 100 % de l'électricité qu'il consomme. La chaleur résiduelle générée par l'exécution des charges de travail d'intelligence artificielle est renvoyée dans le réseau de chauffage urbain de Genève. À pleine capacité, le centre de données fournit suffisamment d'énergie pour chauffer 6 000 foyers en hiver. L'entreprise n'utilise que des énergies renouvelables certifiées et s'est engagée à autoproduire 50 % de son électricité d'ici à 2030.

C'est important parce que le coût environnemental de l'IA est réel et croissant. L'entraînement et l'exécution de grands modèles de langage nécessitent une énorme puissance de calcul, ce qui se traduit par une consommation d'énergie et des émissions de carbone considérables. Une approche responsable de l'utilisation de l'IA doit tenir compte non seulement de ce que les outils produisent, mais aussi des ressources qu'ils consomment. Le modèle d'Infomaniak montre qu'il est possible de fournir des services d'IA très performants sans externaliser les coûts environnementaux.

Infomaniak n'est pas le seul acteur dans l'espace européen de l'IA souveraine, et son modèle peut ne pas convenir aux besoins de toutes les organisations. Mais il offre une illustration concrète d'un principe important : le choix d'un fournisseur d'IA est en soi une décision éthique, avec des implications pour la confidentialité des données, la conformité juridique, l'impact environnemental et la souveraineté numérique. Le choix d'un outil n'est pas seulement une question de capacité. C'est une question de valeurs.

Principaux enseignements

Le choix d'un fournisseur d'IA est en soi une décision éthique. L'endroit où vos données sont traitées, leur utilisation à des fins de formation et l'empreinte environnementale de l'infrastructure sont autant d'éléments qui ont des conséquences. Les alternatives européennes comme Euria d'Infomaniak démontrent que la vie privée, la souveraineté et la durabilité peuvent coexister avec une véritable capacité d'IA.

Le paysage réglementaire britannique : Des principes sans prescriptions

Comprendre l'environnement réglementaire est essentiel pour toute organisation ou professionnel cherchant à utiliser l'IA de manière responsable. Le Royaume-Uni a délibérément choisi une approche différente de la loi prescriptive de l'Union européenne sur l'IA, et les différences ont des implications réelles sur la façon dont les entreprises gèrent leur utilisation de l'IA.

Le cadre du gouvernement britannique repose sur cinq principes fondamentaux : sûreté, sécurité et robustesse ; transparence et explicabilité appropriées ; équité ; responsabilité et gouvernance ; contestabilité et recours. Plutôt que d'établir un régulateur unique de l'IA ou une loi globale spécifique à l'IA, le Royaume-Uni a habilité les régulateurs sectoriels existants - l'ICO pour la protection des données, la FCA pour les services financiers, l'Ofcom pour les communications, la CMA pour la concurrence - à appliquer ces principes dans leurs domaines respectifs.

Cette approche présente des avantages. Elle évite la rigidité d'un régime unique et permet aux régulateurs ayant une connaissance approfondie du secteur d'adapter leurs orientations aux risques et opportunités spécifiques de leur secteur. Mais elle fait également peser sur les organisations elles-mêmes la charge d'interpréter les principes, de développer leurs propres cadres de gouvernance et d'assurer la conformité en l'absence de règles détaillées et prescriptives.

Le AI Playbook du gouvernement britannique, publié en février 2025, fournit des orientations utiles aux organisations du secteur public, mais ses principes sont largement applicables. Il souligne que l'utilisation de l'IA doit être légale et responsable, que les organisations doivent demander des conseils juridiques en amont et qu'un contrôle humain significatif doit être maintenu aux bons stades. Il reconnaît également ouvertement que les modèles d'IA sont formés à partir de données qui peuvent contenir des biais et des éléments nuisibles, et que les organisations doivent prendre en compte toutes les sources potentielles de biais tout au long du cycle de développement.

Pour les organisations du secteur privé, l'implication pratique est claire : vous ne pouvez pas confier vos responsabilités éthiques à un régulateur ou à un fournisseur de technologie. Vous avez besoin d'une politique interne en matière d'IA. Vous avez besoin de lignes de responsabilité claires. Vous devez former les personnes qui utilisent les outils d'IA tous les jours. Et vous devez procéder à des examens réguliers pour vous assurer que vos pratiques suivent le rythme d'une technologie qui évolue plus vite que la plupart des processus institutionnels ne peuvent s'y adapter.

La loi de 2025 sur l'utilisation et l'accès aux données (Data Use and Access Act 2025) a introduit des obligations supplémentaires en matière de données qui affectent les déploiements d'IA, et l'ICO a signalé que la surveillance réglementaire liée à l'IA allait s'intensifier. Les organisations qui établissent dès maintenant des bases éthiques seront bien mieux placées que celles qui se démènent pour rattraper leur retard lorsque l'application de la réglementation s'intensifiera - ce qui, au vu de la trajectoire de l'activité réglementaire au Royaume-Uni et dans l'UE, ne manquera pas d'arriver.

Garder l'humain dans la boucle : Pourquoi le jugement ne peut être automatisé

Le principe le plus important dans l'utilisation éthique de l'IA au travail est aussi le plus simple : l'être humain doit rester le décideur.

Il ne s'agit pas d'un argument contre l'efficacité. Les outils d'IA peuvent rédiger, résumer, traduire, analyser et générer à une vitesse et à une échelle qu'aucun humain ne peut égaler. C'est précisément leur valeur. Mais l'acte de décision - qui consiste à peser le contexte, à comprendre les nuances, à appliquer un jugement professionnel et à accepter la responsabilité du résultat - ne peut être délégué à une machine. Non pas parce que la technologie n'est pas impressionnante, mais parce que la technologie ne comprend pas ce qu'elle fait. Elle traite des modèles. Elle ne saisit pas le sens.

La conclusion de l'étude EY selon laquelle 43 % des salariés britanniques s'inquiètent de l'érosion de leurs compétences par l'IA mérite une attention sérieuse. Cette inquiétude est fondée. Les sciences cognitives ont depuis longtemps établi que les compétences s'atrophient lorsqu'elles ne sont pas mises en pratique. Si les professionnels confient régulièrement l'analyse, la rédaction et la réflexion critique à des outils d'IA sans faire appel à leurs propres facultés, celles-ci s'amenuiseront avec le temps. Le résultat n'est pas une main-d'œuvre plus productive, mais plus dépendante - capable d'utiliser les outils, mais moins capable de fonctionner sans eux, et moins capable de détecter les erreurs lorsque les outils se trompent.

Une étude réalisée en 2025 par la Harvard Business School sur l'IA générative dans le travail d'équipe a révélé que l'introduction d'outils d'IA dans des environnements collaboratifs a remodelé la dynamique d'équipe d'une manière qui n'est pas toujours positive. Lorsque les équipes s'appuient fortement sur le contenu généré par l'IA, la qualité des délibérations humaines diminue. Les gens passent moins de temps à remettre en question les hypothèses, à interroger les preuves et à débattre des alternatives - des activités essentielles à une bonne prise de décision, mais qui semblent redondantes lorsqu'une machine a déjà produit un résultat impeccable.

L'antidote ne consiste pas à rejeter l'IA, mais à l'utiliser avec discipline. Traitez les résultats de l'IA comme une première ébauche et non comme une réponse définitive. Lisez ce qu'elle produit avec le même regard critique que vous appliqueriez au travail d'un collègue débutant. Vérifiez les faits. Remettez la logique en question. Cherchez ce qui manque, et pas seulement ce qui est présent. Et ne présentez en aucun cas un travail généré par l'IA comme étant le vôtre sans l'avoir soigneusement revu, corrigé et assumé pleinement son contenu.

L'impératif humain

L'IA est un outil, pas une autorité. Le professionnel qui utilise bien l'IA n'est pas celui qui génère le plus de résultats, mais celui qui exerce le plus de jugement sur les résultats auxquels il faut se fier, ceux qu'il faut réviser et ceux qu'il faut rejeter complètement. C'est en utilisant les compétences que l'on les préserve, pas en les externalisant.

Un cadre pratique pour votre organisation

La théorie est nécessaire, mais elle n'est pas suffisante. Ce qui suit est un cadre pratique - basé sur le AI Playbook du gouvernement britannique, les conseils éthiques de l'Alan Turing Institute et l'expérience réelle des organisations qui naviguent dans ce paysage - pour utiliser l'IA au travail sans perdre son jugement.

Établir une politique claire et écrite en matière d'IA

Si votre organisation ne dispose pas d'une politique écrite sur l'utilisation de l'IA, c'est la première lacune à combler. Cette politique n'a pas besoin de faire une centaine de pages. Elle doit répondre aux questions importantes : quels sont les outils d'IA dont l'utilisation est approuvée, quels types de données peuvent ou ne peuvent pas être introduits dans ces outils, qui est responsable de la vérification des résultats générés par l'IA et quel niveau d'examen humain est requis avant que les travaux assistés par l'IA ne soient partagés avec l'extérieur. Il devrait également aborder la question de la divulgation - dans quelles circonstances l'utilisation de l'IA doit être reconnue par les clients, les consommateurs ou les collaborateurs.

Investir dans la formation - non seulement sur la manière d'utiliser les outils, mais aussi sur la manière de les envisager.

Il est alarmant de constater que seulement 11 % des employés britanniques ont reçu une formation adéquate en matière d'IA. La formation devrait porter non seulement sur les mécanismes d'utilisation d'outils spécifiques, mais aussi sur les principes de l'évaluation critique : à quoi ressemblent les hallucinations, comment se manifestent les préjugés, quand il faut ou non faire confiance au contenu généré par l'IA et comment vérifier les résultats de manière efficace. Le Central Digital and Data Office du gouvernement britannique propose plus de 70 cours liés à l'IA sur sa plateforme d'apprentissage. Les organisations du secteur privé feraient bien d'investir à un niveau similaire.

Attribuer des responsabilités - clairement et individuellement

La norme britannique d'enregistrement de la transparence des algorithmes rend obligatoire la présence de propriétaires responsables pour les systèmes d'IA dans le secteur public. Les organisations du secteur privé devraient adopter le même principe. Chaque système ou outil d'IA utilisé devrait avoir une personne nommément désignée comme responsable de sa gouvernance. Dans la pratique, la responsabilité collective ne signifie aucune responsabilité.

Choisissez vos outils avec soin

Tous les outils d'IA ne se valent pas, et le choix du fournisseur a un poids éthique. Il convient de se demander où les données sont traitées et stockées, si vos données sont utilisées pour l'entraînement des modèles, quel cadre de protection des données s'applique et quelles sont les références du fournisseur en matière d'environnement. Pour les organisations qui traitent des données sensibles (juridiques, médicales, financières, gouvernementales), un fournisseur d'IA souverain offrant de solides garanties en matière de protection de la vie privée peut s'avérer plus approprié qu'un outil grand public, même si ce dernier est plus familier ou plus à la mode.

Intégrer la vérification dans votre flux de travail

La vérification ne doit pas être une réflexion après coup. Elle doit être une étape formelle de tout processus impliquant un contenu généré par l'IA. Pour les affirmations factuelles, il convient de vérifier les sources primaires. Pour l'analyse, examinez la méthodologie et la logique. Pour la rédaction, lisez le résultat d'un œil critique et assurez-vous qu'il reflète vos normes professionnelles. Établissez une règle selon laquelle aucun contenu généré par l'IA ne quitte l'organisation sans qu'un réviseur humain désigné ne l'ait approuvé.

Révision et itération

Les capacités et les risques liés à l'IA évoluent rapidement. Votre politique et vos pratiques doivent évoluer avec eux. Prévoyez des révisions régulières - au moins trimestrielles - pour évaluer si votre gouvernance de l'IA suit le rythme des outils utilisés par votre personnel et du paysage réglementaire dans lequel vous évoluez. L'ICO a signalé que les orientations en matière d'IA devaient être révisées à la suite de la mise en œuvre de la nouvelle législation sur les données, et vos pratiques internes devraient suivre un rythme similaire.

Conclusion : La technologie n'est pas le décideur - c'est vous qui l'êtes

L'intelligence artificielle sur le lieu de travail n'est pas près de disparaître. Les outils deviendront plus puissants, plus intégrés et plus omniprésents. La question n'est pas de savoir s'il faut les utiliser, mais comment - et la réponse à cette question ne dépend pas de la technologie, mais des personnes qui l'utilisent.

Les données sont sans ambiguïté. L'adoption de l'IA au Royaume-Uni s'accélère, mais la formation, la gouvernance et l'engagement critique sont loin derrière. L'IA fantôme est très répandue. Les hallucinations restent un risque important. Les biais sont systémiques et souvent invisibles. Les questions relatives à la souveraineté des données sont urgentes et en grande partie non résolues. Et l'environnement réglementaire, bien qu'il évolue, fait peser la charge principale de la responsabilité sur les organisations et les individus.

Rien de tout cela ne doit nous paralyser. Les outils d'IA, bien utilisés, sont extraordinairement précieux. Ils peuvent libérer du temps, augmenter les capacités humaines et permettre des travaux qui seraient autrement irréalisables. Mais “bien utilisés” est l'expression clé. Cela signifie qu'ils doivent être utilisés avec conscience, discipline, humilité quant aux limites de la technologie et avec un engagement inébranlable en faveur de la supervision humaine et de la responsabilité professionnelle.

Les entreprises et les fournisseurs qui gagneront une confiance durable sont ceux qui traitent l'éthique non pas comme une contrainte à l'innovation mais comme un principe de conception - comme Infomaniak l'a fait avec Euria, comme l'Alan Turing Institute l'a fait avec son cadre PBG, comme les meilleures organisations le font en construisant des structures de gouvernance qui suivent le rythme de l'adoption. Les professionnels qui prospéreront sont ceux qui utilisent l'IA pour amplifier leur jugement, et non pour le remplacer.

Vous n'êtes pas un professionnel plus efficace parce qu'un outil d'intelligence artificielle peut produire un texte rapidement. Vous êtes un professionnel plus efficace parce que vous savez quand ce texte est juste, quand il est faux, et quand la distinction est importante. Ce jugement vous appartient. C'est la seule chose que la technologie ne peut pas reproduire. N'y renoncez pas.

Sources et références

  1. EY. Les employeurs britanniques ratent 40% des gains de productivité de l'IA. Enquête EY 2025 Work Reimagined. Publié en décembre 2025. ey.com
  2. Gouvernement britannique, ministère de la science, de l'innovation et de la technologie. Assessment of AI Capabilities and the Impact on the UK Labour Market (Évaluation des capacités de l'IA et de son impact sur le marché du travail britannique). Publié en janvier 2026. gov.uk
  3. Moneypenny. L'état de l'adoption de l'IA dans les entreprises britanniques : 2025 Trends & Insights. Enquête auprès de 750 décideurs britanniques, avril-mai 2025. moneypenny.com
  4. EY. L'utilisation de l'IA au Royaume-Uni augmente dans la vie quotidienne, mais reste à la traîne sur le lieu de travail. Indice EY AI Sentiment 2025. Publié en avril 2025. ey.com
  5. Institut Alan Turing. Programme d'éthique et de gouvernance de l'IA dans la pratique. PBG Framework. Leslie, D., Rincón, C., Briggs, M., et al. (2023-2024). turing.ac.uk
  6. Gouvernement du Royaume-Uni. Artificial Intelligence Playbook for the UK Government (Manuel de l'intelligence artificielle pour le gouvernement britannique). Mis à jour en février 2025. gov.uk
  7. Organisation internationale du travail. Gouverner l'IA dans le monde du travail : A Review of Global Ethics Guidelines. Samaan et al. Publié en novembre 2025. ilo.org
  8. Office parlementaire de la science et de la technologie du Royaume-Uni (POST). Intelligence artificielle : Éthique, gouvernance et réglementation. Publié en février 2025. post.parliament.uk
  9. Buolamwini, J. Gender Shades : Intersectional Accuracy Disparities in Commercial Gender Classification. MIT Media Lab. Actes de la recherche sur l'apprentissage automatique. 2018.
  10. Weiser, B. Voici ce qui se passe lorsque votre avocat utilise ChatGPT. Le New York Times. Le 27 mai 2023.
  11. Dahl, M., Magesh, V., et al. Large Legal Fictions : Profiling Legal Hallucinations in Large Language Models. Stanford Human-Centered Artificial Intelligence et Yale Law School. Journal de l'analyse juridique. 2024.
  12. Deloitte. État de l'IA dans l'entreprise. Enquête mondiale sur l'adoption de l'IA par les dirigeants. 2024.
  13. Infomaniak. Infomaniak lance Euria, une IA libre et souveraine qui respecte la vie privée et chauffe les maisons. Communiqué de presse. Publié le 9 décembre 2025. news.infomaniak.com
  14. Dell'Acqua, F. et al. The Cybernetic Teammate : A Field Experiment on Generative AI Reshaping Teamwork and Expertise. Document de travail 25-043 de la Harvard Business School. Mars 2025.
  15. Office des statistiques nationales (ONS). Recherche sur l'impact de l'intelligence artificielle (IA) sur l'emploi. FOI response. 2025. ons.gov.uk
  16. Gouvernement britannique, Centre for Data Ethics and Innovation (CDEI). AI Assurance Framework and Guidance (Cadre d'assurance de l'IA et orientations). gov.uk

Références vérifiées en février 2026. Liens externes ; Coleebri Digital n'est pas responsable du contenu des tiers.

Partager sur :

Blog

Plus d'informations En rapport Articles

Vitamine D, fer, B12 : les carences que la moitié des Britanniques ignorent avoir

Construire une identité de marque quand on n'a pas les moyens de s'offrir les services d'une grande agence

Premiers pas dans l'IA : comment les chatbots, les outils gratuits et un peu de curiosité peuvent transformer votre journée de travail