
le taux d'automatisation réel était pratiquement nul
Le ministère de la Justice des États-Unis a inculpé Albert Saniger, fondateur et ancien PDG de la startup fintech Nate, pour fraude envers les investisseurs. L'entreprise, qui avait levé plus de 50 millions de dollars auprès de fonds tels que Coatue, Forerunner Ventures et Renegade Partners et a récemment levé une série A de 38 millions de dollars en 2021, sous la houlette de Renegade Partners, affirmait proposer une application d'achat en ligne automatisée grâce à l'intelligence artificielle (IA).
Cependant, une enquête a révélé que les transactions étaient en réalité effectuées manuellement par des travailleurs basés aux Philippines, remettant en question l'authenticité des revendications technologiques de l'entreprise. Selon l'acte d'accusation, le taux d'automatisation réel de l'application était pratiquement nul, malgré l'acquisition de technologies d'IA et l'embauche de data scientists.
Fondée en 2018, Nate promettait une expérience d'achat universelle, permettant aux utilisateurs de finaliser des achats sur n'importe quel site de commerce électronique en un seul clic, grâce à l'IA. En réalité, l'application s'appuyait sur des centaines de contractuels dans un centre d'appels aux Philippines pour exécuter manuellement les commandes.

Le recours massif de Nate à des sous-traitants humains a fait l'objet d'une enquête de The Information en 2022.
Cette affaire met en lumière une tendance préoccupante dans le secteur technologique, où certaines startups exagèrent leurs capacités en matière d'IA pour attirer des investissements. Des cas similaires ont été rapportés, notamment une startup de logiciels pour drive-in et une licorne de la legaltech, EvenUp, qui s'appuyaient également sur des travailleurs humains pour exécuter des tâches présentées comme automatisées.
En janvier 2023, Nate a épuisé ses fonds et a été contraint de vendre ses actifs, laissant les investisseurs avec des pertes quasi totales. Albert Saniger n'a pas répondu aux demandes de commentaires et est actuellement répertorié comme associé directeur chez Buttercore Partners, une société de capital-risque basée à New York.
Le procureur américain par intérim, Matthew Podolsky, a déclaré : « Albert Saniger a trompé les investisseurs en exploitant la promesse et l'attrait de la technologie de l'IA pour construire un faux récit sur une innovation qui n'a jamais existé. Ce type de tromperie ne fait pas seulement des victimes parmi les investisseurs innocents, il détourne les capitaux des startups légitimes, rend les investisseurs sceptiques quant aux véritables percées et, en fin de compte, entrave les progrès du développement de l'IA. Notre bureau et nos partenaires du FBI continueront à poursuivre ceux qui cherchent à nuire aux investisseurs en vantant de fausses innovations ».
Une dérive révélatrice du « hypewashing » de l’IA
L’affaire Nate n’est pas un cas isolé mais s’inscrit dans une tendance plus large de « hypewashing » technologique, dans laquelle des entreprises prétendent utiliser de l’intelligence artificielle alors qu’elles reposent sur des processus entièrement humains. L’objectif est clair : capitaliser sur la frénésie des investisseurs pour les technologies d’avant-garde, souvent sans validation technique rigoureuse. En façade, ces entreprises présentent des démonstrations « magiques » reposant sur de la main-d’œuvre bon marché déguisée en automatisation. Dans les coulisses, les promesses technologiques sont creuses et les levées de fonds sont fondées sur des illusions.
Une startup prétend s'appuyer sur l'IA pour automatiser le développement d'applications
Avec Builder de l’entreprise Engineer.ai, la création d’une application est « simple » : vous décrivez sur la base d’un jeu de proposition initial ce que vous avez derrière la tête comme idée ; vous précisez, une fois de plus en vous appuyant sur des propositions du service, quelles sont les fonctionnalités de l’application puis « l'intelligence artificielle » va, en tandem avec un réseau de designers et de développeurs, donner vie à l’idée. La vidéo sur le site web de l’entreprise résume bien le process :
Pour une application dans les technologies portables dotée d’une unique fonctionnalité de localisation et à livrer en 6 jours, le service estime le coût à 1800 $. L’entreprise parle d’intelligence artificielle assistée par les humains ; seulement, c’est l’opacité du « visage de cette IA » qui inquiète. Une publication du Wall Street Journal confirme ces doutes.
« La startup Engineer.ai dit qu'elle utilise l'intelligence artificielle pour automatiser en grande partie le développement des applications mobiles, mais plusieurs anciens et actuels employés disent que l'entreprise exagère sur ses capacités en matière d'IA pour attirer les clients et les investisseurs », lit-on.
En tout cas, la description que l’entreprise fait d’elle-même est claire : des humains interviennent dans le processus de développement des applications pour lesquelles les clients passent des commandes. Donc, pas difficile de conclure qu’il n’y a pas d’intelligence artificielle à l’œuvre pour ce qui concerne ce volet. D’après les retours du Wall Street Journal (WSJ), c’est une armée de développeurs basés en Inde qui œuvre en arrière-plan. En sus, il y a qu’une prise en main rapide du service laisse apparaître un tas de propositions regroupées au cas par cas. Donc là aussi, des doutes quant à ceci qu’une quelconque intelligence artificielle serait à l’œuvre.
Le Wall Street Journal rapporte néanmoins que l’entreprise s’appuierait sur ladite technologie pour l’estimation des coûts, les propositions de délais de livraison des applications ainsi que pour l’assignation des tâches aux développeurs. Pourtant, l’entreprise a, en s’appuyant sur ce stratagème, réussi à obtenir 30 millions de dollars de financement d’une firme détenue par la SoftBank. D’après ce que rapporte le WSJ, l’entreprise a usé de fausses déclarations pour obtenir ledit soutien financier : elle a présenté les activités de développement de son service aux investisseurs comme rendues à 80 % alors qu’elle n’avait quasiment pas entamé le processus.
Des entreprises de tech préfèrent recourir à des humains et les font passer pour une intelligence artificielle
e Turc mécanique ou l’automate joueur d'échecs est un célèbre canular construit à la fin du XVIIIe siècle : il s’agissait d'un prétendu automate doté de la faculté de jouer aux échecs. L’automate était prétendument capable de jouer une partie d’échecs contre un adversaire humain. Mais en réalité, il possédait un compartiment secret dans lequel un joueur humain pouvait se glisser. Pendant 84 ans, et grâce au talent des joueurs cachés, le Turc mécanique put remporter la plupart des parties d'échecs auxquelles il participa en Europe et en Amérique, y compris contre certains hommes d'État tels que Napoléon Bonaparte, Catherine II de Russie et Benjamin Franklin.
Plus de deux siècles plus tard, il apparaît que ce même leurre fonctionne toujours. Et pour cause, il est difficile de concevoir un service propulsé par une intelligence artificielle. Une tâche si difficile que certaines startups se sont résolues de se tourner vers des humains et les faire passer pour des robots plutôt que le contraire.
« Utiliser un humain pour faire le travail vous permet d’outrepasser une panoplie d’enjeux de développement d’ordre technique et commercial. Il n’y a pas de scalabilité, bien évidemment, mais cela vous permet de créer quelque chose et sauter très tôt la partie difficile, » a dit Gregory Koberger, PDG de ReadMe, qui dit être tombé sur beaucoup de “pseudo-IA”. « Il s’agit essentiellement d’un prototypage de l’IA avec des êtres humains, » dit-il.
Cette pratique a été mise à la lumière du jour après la publication d’un article du Wall Street Journal informant que des centaines de développeurs tiers bénéficient de l’accès aux emails avec l’autorisation de Google.
Dans le cas de la société Edison Software, des ingénieurs d’IA ont scanné les emails personnels de centaines d’utilisateurs (avec leurs identités éditées) pour améliorer une fonctionnalité de « réponses intelligentes ». L’entreprise n’a pas indiqué dans sa politique de confidentialité que des employés humains ont accès aux emails des utilisateurs.
Ce n’est pas la première fois qu’une telle chose arrive. En 2008, Spinvox, une entreprise qui convertissait les messages vocaux en messages textes, a été accusée de recourir à des employés humains étrangers dans des centres d’appel au lieu de machines pour faire le travail.
En 2016, une autre entreprise relevée par Bloomberg cette fois a obligé des employés à passer 12 heures par jour à prétendre qu’ils sont des chatbots pour des services d’agenda comme X.ai et Clara. Ce travail a été si contraignant que les employés ont dit qu’ils avaient hâte de voir une IA venir les remplacer.
En 2017, l’application de gestion de dépenses Expensify a admis avoir employé des humains pour transcrire au moins quelques-uns des reçus supposés être analysés par sa “technologie smartscreen”. L’entreprise a utilisé le service de travail collaboratif Mechanical Turk d’Amazon, où des travailleurs faiblement rémunérés ont dû lire et transcrire les reçus.
Une zone grise légale, mais une trahison morale
Techniquement, sous-traiter des tâches à des humains dans un contexte de prototypage ou de « test de concept » peut être acceptable – à condition que ce soit divulgué. Ce qui distingue Nate, selon le DOJ, c’est que Saniger aurait volontairement trompé ses investisseurs sur la nature exacte du service, gonflant artificiellement le niveau d’automatisation. Cette dissimulation systématique aurait été motivée non par la stratégie, mais par la cupidité : maintenir la valorisation à flot, séduire les VCs, et préserver son image de fondateur visionnaire.
Un signal d’alarme pour les investisseurs et le grand public
Le cas Nate devrait servir de signal d’alarme non seulement pour les investisseurs, mais aussi pour le public. De nombreuses applications dites « intelligentes » s’appuient aujourd’hui sur des « Mechanical Turks » humains – en particulier dans les pays à bas revenus – pour imiter l’autonomie d’une IA. Cette forme de ghost labor alimente une illusion de progrès, masque les inégalités globales et fausse la perception de ce que les technologies sont réellement capables de faire aujourd’hui.
Une opportunité de réforme pour les régulateurs
Face à ce type d’abus, il devient urgent de mettre en place des cadres réglementaires plus stricts autour des déclarations technologiques. Faut-il imposer un audit indépendant des modèles d’IA avant toute levée de fonds dépassant un certain seuil ? Des normes d’étiquetage (« Human-Powered AI ») devraient-elles exister, comme pour les aliments ou les crédits carbone ? Le secteur est encore jeune, mais les conséquences d’un laisser-faire sont déjà palpables : pertes financières, perte de confiance, et cynisme croissant vis-à-vis des promesses de la tech.
Source : ministère de la Justice
Et vous ?






Vous avez lu gratuitement 4 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.