 
Le cabinet de conseil international Deloitte a récemment été confronté à une crise de réputation sans précédent, suite à la publication d'un rapport dont la véracité a été remise en question. Le gouvernement australien a en effet exigé le remboursement d'une somme considérable après avoir découvert que le document, produit partiellement par une intelligence artificielle, contenait de nombreuses erreurs et inexactitudes. Cette situation soulève des questions sur la fiabilité de l'IA dans la production de documents critiques et sur les pratiques des entreprises de conseil.
Le rapport en question, intitulé « Targeted Compliance Framework Assurance Review », a été commandé par le ministère de l'Emploi et des Relations au Travail d'Australie. Son objectif était de fournir une analyse approfondie sur l'automatisation des pénalités dans le cadre du système de sécurité sociale australien. Ce projet a été facturé à hauteur de 440 000 AUD, soit environ 290 000 USD, une somme substantielle qui a suscité des attentes élevées quant à la qualité de l'analyse fournie.
À la lecture de ce document de 273 pages, les universitaires et experts du domaine ont rapidement identifié des anomalies préoccupantes. Parmi celles-ci, des citations attribuées à des chercheurs fictifs, des références à des études introuvables, et même des mentions de décisions judiciaires complètement inventées. Ces erreurs soulèvent des doutes sur la rigueur et le professionnalisme de Deloitte, une entreprise qui a longtemps été considérée comme un leader dans le domaine du conseil.
La juriste Lisa Burton Crawford, professeur respecté dans le domaine, a été l'une des premières à pointer du doigt ces incohérences. Elle a découvert des passages qui lui étaient attribués alors qu'elle n'avait jamais publié les travaux cités dans le rapport. De telles erreurs mettent en lumière les dangers de s'appuyer sur des systèmes d'IA pour produire des documents de cette importance, sans une révision humaine adéquate.
Deloitte a reconnu avoir utilisé l'intelligence artificielle Azure OpenAI GPT-4 pour générer une partie du contenu du rapport, mais ce recours n'a été révélé qu'au cours d'une révision en septembre. Au total, sur les 141 sources initialement citées dans le rapport, 14 ont été supprimées parce qu'elles étaient tout simplement inexistantes. Ce manque de diligence soulève des questions éthiques sur la manière dont les entreprises de conseil devraient utiliser l'IA dans leurs processus de production.
Suite à la découverte de ces erreurs, Deloitte a été contraint d'accepter de rembourser la dernière tranche de son contrat avec le gouvernement australien, bien que le montant exact de ce remboursement n'ait pas été spécifié. Cette décision illustre les conséquences financières et réputationnelles d'une telle défaillance. Le gouvernement a précisé que, bien que le fond du rapport et ses recommandations demeurent inchangés, les réserves formulées par les experts universitaires soulignent un scepticisme croissant quant à la valeur réelle des résultats fournis.
La situation actuelle met en lumière les limites inhérentes à l'utilisation de l'intelligence artificielle dans des contextes critiques. Si de nombreuses entreprises, y compris d'autres cabinets d'audit, explorent les possibilités offertes par l'IA, cette déconvenue de Deloitte sert d'avertissement sur les dangers potentiels. Les « hallucinations » des intelligences artificielles, où des informations fabriquées sont présentées comme des faits, peuvent avoir des conséquences désastreuses, notamment dans des secteurs où la précision et la rigueur sont primordiales.
Un incident similaire a eu lieu aux États-Unis, où une présentatrice d'information a diffusé une fausse nouvelle générée par une IA, se défendant en rejetant la responsabilité sur l'outil utilisé. Ces exemples soulignent la nécessité d'une réglementation plus stricte concernant l'emploi de l'IA, afin de protéger les clients et le grand public des risques liés à une information inexacte ou trompeuse.
 
Ce scandale pourrait entraîner des changements significatifs dans l'approche des entreprises de conseil concernant l'intégration de l'intelligence artificielle dans leurs travaux. La nécessité d'une supervision humaine rigoureuse et d'une validation des informations générées par l'IA pourrait devenir une norme incontournable. Les entreprises devront également communiquer de manière transparente sur leur utilisation de ces technologies afin de restaurer la confiance de leurs clients et du grand public.
En outre, cette affaire soulève des questions sur la responsabilité éthique des entreprises qui utilisent des systèmes d'IA. Quel niveau de diligence doit être appliqué pour garantir l'exactitude des informations ? Les clients doivent-ils être informés des méthodes utilisées pour produire des rapports critiques ? Les réponses à ces questions seront cruciales pour l'avenir des entreprises de conseil et leur capacité à naviguer dans un paysage technologique en constante évolution.
En conclusion, le fiasco entourant le rapport de Deloitte est un avertissement pour toutes les entreprises qui envisagent d'utiliser l'intelligence artificielle dans leurs pratiques. Bien que ces technologies offrent de nombreuses opportunités pour améliorer l'efficacité et l'analyse, elles comportent également des risques non négligeables qui doivent être gérés avec soin. La transparence, la responsabilité et la diligence humaine demeurent essentielles pour garantir que les entreprises puissent continuer à fournir des services de haute qualité, tout en préservant la confiance des clients et la crédibilité de leur réputation.