La confiance accordée aux cabinets de conseil est souvent fondée sur leur réputation d'expertise et de fiabilité. Cependant, un récent incident impliquant Deloitte, l'un des plus grands cabinets de conseil au monde, a mis en lumière les risques liés à l'utilisation des technologies d'intelligence artificielle (IA) dans le cadre de la production de rapports critiques. Le gouvernement australien a demandé à Deloitte de rembourser une somme considérable suite à la remise d'un rapport truffé d'erreurs, ce qui soulève des questions sur l'intégrité et la diligence des pratiques de recherche moderne.
Le rapport en question, intitulé « Targeted Compliance Framework Assurance Review », a été commandé par le département de l'Emploi et des Relations au Travail australien. Son objectif était d'apporter une expertise technique sur l'automatisation des pénalités dans le cadre de l'administration du système social australien. Pour ce travail, Deloitte a facturé environ 440 000 AUD, soit l'équivalent de 290 000 USD, une somme qui a suscité l'indignation des contribuables lorsqu'il est devenu évident que le rapport était loin de respecter les normes attendues.
Dès sa diffusion, le rapport a été critiqué par plusieurs universitaires australiens qui ont rapidement relevé des anomalies inquiétantes. Parmi celles-ci, on trouve des citations attribuées à des chercheurs fictifs, des études inexistantes servant à appuyer des allégations, ainsi que des références à des décisions de justice complètement inventées. Ces erreurs ne sont pas simplement des détails mineurs ; elles remettent en question la validité et la crédibilité des conclusions présentées dans le rapport.
La juriste Lisa Burton Crawford, professeure éminente dans son domaine, a notamment découvert des passages qui lui étaient attribués, alors qu'elle n'avait jamais publié les travaux en question. Ce type d'inexactitude révèle une grave négligence dans la vérification des sources, un élément fondamental dans la rédaction académique et professionnelle. De plus, la présence de « hallucinations » générées par l'IA, notamment par l'outil Azure OpenAI GPT-4 utilisé par Deloitte, illustre les dangers potentiels de recourir à des technologies non supervisées pour produire des analyses critiques.
Face à la gravité des erreurs détectées, Deloitte a été contraint d'accepter de rembourser la dernière tranche de son contrat. Bien que le montant exact du remboursement n'ait pas été précisé, il est évident que ce scandale a des répercussions financières significatives pour le cabinet de conseil. De plus, il a porté un coup dur à sa réputation, déjà mise à l'épreuve par des cas similaires dans le passé.
Dans un document retravaillé mis en ligne fin septembre, Deloitte a admis avoir eu recours à l'IA pour la génération de contenu, mais seulement à la page 58, ce qui soulève des questions sur la transparence de l'utilisation de cette technologie. Sur les 141 sources initialement citées, 14 ont été retirées, car elles étaient inexistantes. Cela soulève une préoccupation majeure : comment une entreprise de cette taille a-t-elle pu négliger de vérifier la véracité des informations avant de les présenter à un client gouvernemental ?
Le gouvernement australien a déclaré que le contenu du rapport et ses recommandations demeuraient inchangés, malgré les révélations sur les erreurs. Cependant, les experts universitaires expriment des réserves quant à la fiabilité des conclusions présentées. Cette situation met en évidence des lacunes dans les processus de contrôle qualité au sein du cabinet, et soulève des interrogations sur les méthodologies utilisées dans la rédaction de rapports d'expertise.
L'incident de Deloitte n'est pas isolé. D'autres secteurs, notamment le journalisme, ont également connu des cas où des informations erronées générées par l'IA ont été diffusées. Aux États-Unis, une présentatrice de télévision a récemment été critiquée pour avoir relayé des informations fabriquées par une IA, ce qui a conduit à une discussion sur la responsabilité des médias dans l'utilisation de ces technologies. Cette situation souligne l'importance d'établir des normes et des directives claires sur l'utilisation de l'IA dans les entreprises afin d'éviter des conséquences néfastes similaires.
Alors que l'IA continue de transformer divers secteurs, il est impératif que les entreprises, en particulier dans le domaine du conseil, reconnaissent à la fois les avantages et les limitations de ces technologies. L'incident avec Deloitte sert de rappel que l'IA, bien qu'elle puisse offrir des gains d'efficacité et de rapidité, ne doit pas remplacer le jugement humain et la rigueur académique. Les entreprises doivent investir dans des processus de vérification rigoureux et s'assurer que des experts humains examinent et valident les travaux générés par des machines avant leur publication.
Il est probable que cet incident incitera les autorités et les acteurs du marché à réfléchir à un cadre réglementaire plus strict concernant l'utilisation de l'IA dans des contextes critiques. Les entreprises de conseil comme Deloitte devront peut-être établir des protocoles plus rigoureux pour garantir que les outils d'IA sont utilisés de manière responsable et transparente. La mise en place de mécanismes de contrôle appropriés pourrait aider à restaurer la confiance du public et à prévenir des situations similaires à l'avenir.
Le scandale entourant le rapport de Deloitte est un exemple frappant des risques associés à l'utilisation de l'intelligence artificielle sans supervision adéquate. En tant que société de conseil de premier plan, Deloitte a la responsabilité de maintenir des standards élevés d'intégrité et de précision. Alors que l'industrie continue d'explorer les possibilités offertes par l'IA, il est crucial de rappeler que la technologie doit être un outil au service de l'expertise humaine, et non un substitut. Ce cas souligne la nécessité d'une vigilance constante et d'une évaluation critique des méthodes utilisées dans la production de rapports d'expertise.