 
Le prestigieux cabinet de conseil Deloitte se trouve au cœur d'un scandale majeur après avoir remis un rapport dont le contenu a été largement élaboré par une intelligence artificielle, et qui s'est avéré truffé d'erreurs. Cette situation a conduit le gouvernement australien à exiger un remboursement significatif de la part de l'entreprise. Cet incident soulève des questions cruciales sur l'utilisation de l'IA dans le secteur du conseil et met en lumière les enjeux associés à la fiabilité des informations générées automatiquement.
Le rapport en question, intitulé « Targeted Compliance Framework Assurance Review », a été commandé par le département de l’Emploi et des Relations au Travail australien. Son objectif était d'apporter une expertise technique sur l'automatisation des pénalités au sein du système de protection sociale australien. Pour ce service, Deloitte avait facturé près de 440 000 dollars australiens (environ 290 000 dollars américains) aux contribuables. Ce document, long de 273 pages, prétendait s'appuyer sur l'expertise reconnue du cabinet, mais les choses ont rapidement pris une tournure inattendue.
Dès sa publication, plusieurs universitaires australiens ont commencé à examiner le contenu de ce rapport. Ils ont rapidement identifié un nombre alarmant d'anomalies : des citations attribuées à des chercheurs fictifs, des études mentionnées sans aucune trace dans la littérature scientifique, et même des références à des décisions judiciaires totalement inventées. Un fait particulièrement révélateur a été mis en lumière par la juriste Lisa Burton Crawford, qui a découvert que certains passages lui étaient attribués, alors qu'elle n'avait jamais publié les rapports cités. Cela a jeté un doute sur la rigueur et la véracité du travail effectué par Deloitte.
La technologie d'intelligence artificielle utilisée par Deloitte, Azure OpenAI GPT-4o, est censée être un outil performant pour aider à analyser des processus techniques et à vérifier la conformité des codes informatiques aux exigences commerciales. Cependant, l'entreprise a admis n'avoir mentionné l'utilisation de l'IA que dans un document révisé, précisant que cela ne concernait qu'une partie du rapport, à la page 58. Les résultats ont montré des failles notables dans l'approche, avec 14 des 141 sources initialement mentionnées qui ont disparu lors de cette révision, car elles étaient tout simplement inexistantes.
Face à la gravité de la situation, Deloitte a été contraint de rembourser la dernière tranche de son contrat. Bien que le montant exact du remboursement n'ait pas été précisé, il est évident que cette décision a des implications financières significatives pour le cabinet. Le gouvernement australien a déclaré que les recommandations du rapport devaient rester inchangées, mais de nombreux experts universitaires ont exprimé des doutes quant à la validité des conclusions tirées dans le document. Cette affaire a non seulement terni la réputation de Deloitte, mais elle soulève également des questions sur l'avenir de l'utilisation de l'IA dans des travaux de conseil critiques.
 
Ce cas n'est pas isolé. De nombreuses entreprises dans divers secteurs expérimentent actuellement l'intelligence artificielle, mais ce type d'incident met en lumière les risques liés aux « hallucinations » de l'IA. Ces hallucinations se produisent lorsque des systèmes d'IA génèrent des informations inexactes ou totalement fausses, souvent sans que l'utilisateur en soit conscient. Aux États-Unis, un incident similaire s'est produit lorsqu'une présentatrice de nouvelles a diffusé des informations erronées créées par une IA, se dédouanant en rejetant la responsabilité sur ChatGPT. Cela soulève des questions éthiques sur la responsabilité de ceux qui utilisent ces technologies dans des contextes où la précision de l'information est cruciale.
À la lumière de ces événements, il devient impératif d'établir des réglementations plus strictes concernant l'utilisation de l'intelligence artificielle dans le domaine du conseil et au-delà. Les entreprises doivent être transparentes sur l'utilisation de l'IA et ses limites. L'IA ne devrait pas remplacer l'expertise humaine, mais plutôt servir d'outil complémentaire. Les résultats produits par l'IA doivent être vérifiés et validés par des experts humains pour éviter des situations comme celle-ci, où des décisions potentiellement préjudiciables sont prises sur la base d'informations erronées.
L'affaire Deloitte met en exergue les dangers inhérents à l'utilisation de l'intelligence artificielle sans une supervision adéquate. Bien que la technologie puisse offrir des avantages considérables, elle doit être utilisée avec prudence et responsabilité. Les entreprises doivent apprendre de cet incident pour améliorer leurs pratiques et garantir que l'intégrité de l'information et la qualité des services fournis sont préservées. Ce scandale pourrait bien être un tournant pour le secteur du conseil, incitant à une réévaluation des méthodes de travail et à une meilleure intégration de l'IA avec l'expertise humaine.