Le cabinet de conseil Deloitte, l'un des plus grands et des plus respectés au monde, traverse une crise sans précédent due à la publication d'un rapport gravement erroné, élaboré en partie par une intelligence artificielle. Ce rapport, commandé par le gouvernement australien, a conduit à un remboursement substantiel, remettant en question l'intégrité et la fiabilité des services fournis par de grandes entreprises de conseil. Ce scandale soulève des interrogations sur l'utilisation de l'intelligence artificielle dans des contextes sensibles et sur les implications éthiques de sa mise en œuvre.
En 2025, le département de l'Emploi et des Relations au Travail de l'Australie a mandaté Deloitte pour réaliser une étude intitulée "Targeted Compliance Framework Assurance Review". Ce rapport avait pour objectif de fournir une expertise technique sur l'automatisation des pénalités dans la gestion du système social australien. Le coût estimé de cette étude s'élevait à environ 440 000 dollars australiens, soit près de 290 000 dollars américains, une somme considérable financée par les contribuables australiens.
À peine le rapport diffusé, des universitaires et des experts ont commencé à analyser son contenu. Ils ont rapidement identifié de nombreuses anomalies notables. Ces experts ont trouvé des citations attribuées à des chercheurs inexistants, des allégations soutenues par des études introuvables, et des références à des décisions de justice totalement fictives. La juriste Lisa Burton Crawford, professeur de droit respecté, a même constaté que des passages lui étaient attribués, alors qu'elle n'avait jamais publié les documents cités.
Deloitte a reconnu que l'intelligence artificielle, en particulier l'outil Azure OpenAI GPT-4, avait été utilisée dans la création de ce rapport. Cependant, la société a admis qu'elle avait seulement divulgué l'utilisation de l'IA dans une version révisée du rapport, à la page 58. Sur les 141 sources initialement citées, 14 ont été retirées car elles étaient tout simplement inexistantes. Ce phénomène d'erreurs générées par l'IA, souvent désigné sous le terme de "hallucinations", a mis en lumière les limites de cette technologie.
Face à la gravité des irrégularités constatées, Deloitte a été contraint d'accepter de rembourser la dernière tranche de son contrat. Toutefois, le montant exact du remboursement n'a pas été précisé. Cette situation a non seulement des répercussions financières pour Deloitte, mais elle a également terni son image auprès des institutions publiques et du grand public.
Le gouvernement australien a affirmé que, malgré les erreurs, le fond du rapport et ses recommandations demeuraient inchangés. Cependant, les universitaires et les experts en éthique soulignent que cette affaire ne fait qu'accroître les inquiétudes quant à l'utilisation de l'IA dans des domaines où des erreurs peuvent avoir des conséquences graves. Les critiques pointent du doigt le fait que Deloitte n'a jamais informé le gouvernement ou les universitaires de l'utilisation de l'IA pour analyser des processus techniques, ce qui soulève des questions d'intégrité et de transparence.
Ce scandale n'est pas isolé. Il illustre les dangers associés à l'utilisation de l'intelligence artificielle dans des situations où la précision et la véracité sont essentielles. Aux États-Unis, un incident similaire s'est produit lorsqu'une présentatrice de nouvelles a diffusé une information entièrement fabriquée par une IA, se défendant en blâmant ChatGPT pour cette fake news. Ces incidents soulignent la nécessité d'un encadrement rigoureux et d'une vigilance accrue lors de l'intégration de l'IA dans le monde professionnel.
Pour Deloitte et d'autres cabinets de conseil, l'utilisation de l'IA doit être abordée avec prudence. Le besoin d'un équilibre entre l'automatisation et l'intervention humaine est plus critique que jamais. Les entreprises doivent reconnaître que, bien que l'IA puisse optimiser certains processus, elle ne peut remplacer l'expertise humaine, surtout dans des contextes complexes où la nuance et l'analyse critique sont essentielles.
En somme, le fiasco de Deloitte en Australie sert d'avertissement à l'ensemble de l'industrie du conseil. Alors que l'IA continue de transformer des secteurs variés, il est impératif que les entreprises adoptent des pratiques responsables, garantissant que la technologie soit utilisée comme un outil complémentaire plutôt que comme un substitut à l'expertise humaine. Ce cas souligne l'importance d'une approche éthique dans l'utilisation de l'intelligence artificielle, tout en préservant l'intégrité des travaux réalisés pour le compte de clients, en particulier dans le secteur public.