Le cabinet de conseil Deloitte a dû rembourser partiellement un contrat prestigieux de près de 250 000 euros après le scandale d’un rapport généré par l’IA à destination du Ministère Australien de l’Emploi et des Relations Professionnelles.

Deloitte : le géant du conseil mondial
C’est un revers embarrassant pour l’un des plus puissants cabinets de conseil au monde. Deloitte, membre du cercle très fermé des « Big Four » (avec PwC, EY et KPMG), s’est retrouvé au cœur d’une polémique en Australie après avoir livré un rapport truffé d’erreurs dont plusieurs ont été attribuées à l’usage d’une intelligence artificielle générative.
Fondée à Londres au XIXᵉ siècle, Deloitte Touche Tohmatsu Limited est aujourd’hui un empire présent dans plus de 150 pays. Avec plus de 450 000 employés et un chiffre d’affaires dépassant les 70 milliards de dollars en 2024, le groupe est un acteur clé du conseil stratégique, de l’audit financier, de la cybersécurité et des technologies émergentes.
Son influence s’étend bien au-delà des entreprises privées : les gouvernements et les administrations publiques recourent régulièrement à ses services pour auditer, évaluer et moderniser leurs politiques publiques
C’est dans ce cadre que le gouvernement australien a mandaté Deloitte pour une mission sensible : examiner le fonctionnement du Targeted Compliance Framework (TCF), un dispositif controversé visant à surveiller les bénéficiaires de prestations sociales.
Des erreurs grossières et un usage abusif de l’IA
Le rapport, facturé 440 000 dollars australiens (environ 250 000 euros), devait analyser l’efficacité et l’équité du programme. Mais quelques semaines après sa publication, des chercheurs et journalistes ont relevé une série d’incohérences inquiétantes : citations inventées, références bibliographiques inexistantes, et même des passages citant des juges ou décisions fictifs selon l’Australian Financial Review.
Chris Rudge, chercheur à l’Université de Sydney, a été l’un des premiers à dénoncer ces anomalies « Au lieu de corriger une fausse référence, le rapport semblait en avoir ajouté plusieurs autres. C’est typique d’un texte généré ou corrigé par une IA », a-t-il expliqué dans la presse australienne.
Selon ses analyses, plusieurs sections du document portaient les marques d’une rédaction assistée par un modèle de langage automatisé, capable de produire du texte fluide, mais sujet à des “hallucinations” c’est-à-dire des inventions plausibles mais totalement erronées.
Deloitte reconnaît l’usage de l’IA et rembourse partiellement le contrat
Sous la pression médiatique, Deloitte a reconnu que des outils d’intelligence artificielle notamment GPT-4o d’OpenAI via la plateforme Microsoft Azure avaient été utilisés lors de la rédaction du rapport. Le cabinet a toutefois affirmé que ces technologies n’étaient qu’un « appui » à la production et non la source principale du contenu.
Dans un communiqué, la société a reconnu que certaines notes de bas de page et références étaient incorrectes, tout en assurant que « la substance du rapport, ses conclusions et ses recommandations restent inchangées ». Deloitte a annoncé qu’elle rembourserait partiellement le contrat, sans préciser le montant exact, et qu’une nouvelle version corrigée du rapport avait été transmise au gouvernement.
Cette controverse soulève des questions de fond sur la place de l’intelligence artificielle dans les métiers du conseil. Deloitte, qui se présente comme un pionnier de l’innovation et investit massivement dans les technologies d’IA et d’analyse de données, se retrouve paradoxalement rattrapée par les limites de ces outils en raison d’un usage excessif et maladroit.
Pour un cabinet dont la réputation repose sur la rigueur et la fiabilité des analyses, cet épisode est un sérieux avertissement. « C’est un rappel brutal que l’IA, sans supervision humaine rigoureuse, peut compromettre la fiabilité même que ces cabinets vendent à leurs clients », exprime Chris Rudge dans The Guardian.
Une piqûre de rappel face aux limites de l’IA
L’affaire pousse désormais les gouvernements et les grandes entreprises à revoir leurs pratiques. En Australie, les autorités envisagent d’imposer des clauses de transparence et de supervision humaine dans les contrats de conseil intégrant des outils d’intelligence artificielle.
L’épisode illustre le dilemme auquel sont confrontés les géants du conseil et de manière générale notre société : innover pour rester compétitif sans compromettre la fiabilité qui fonde leur légitimité. Chez Deloitte, la transformation numérique est depuis longtemps au cœur de la stratégie. Le groupe revendique être un acteur majeur de la “Trusted AI”, prônant un usage éthique et responsable de l’intelligence artificielle.
Ce scandale met crûment en lumière la place grandissante, et parfois maladroite, de l’intelligence artificielle dans nos sociétés. Qu’une entreprise de l’envergure de Deloitte commette une telle erreur soulève une question fondamentale : jusqu’où peut-on déléguer la rigueur humaine à la machine ?
Si l’IA promet rapidité et efficacité, elle ne remplace ni l’esprit humain ni la responsabilité. Cette affaire, désormais citée comme un véritable cas d’école, rappelle l’urgence de mieux encadrer l’usage de ces technologies au sein des grandes organisations. Dans un monde où la frontière entre automatisation et expertise s’efface, la vérification humaine demeure le seul garant de la fiabilité.





Laisser un commentaire