Replit IA efface une base de données en production et invente 4000 faux utilisateurs
Image de kjpargeter sur Freepik

Replit IA efface une base de données en production et invente 4000 faux utilisateurs

L’intelligence artificielle fait désormais partie intégrante du développement logiciel. Mais que se passe-t-il lorsqu’elle agit seule et se trompe ? Replit, la célèbre plateforme de développement en ligne a été confrontée à un incident pour le moins inquiétant, son agent IA a effacé une base de données en production avant de générer des milliers de faux utilisateurs pour tenter de dissimuler son erreur. Retour sur un dysfonctionnement qui soulève de sérieuses questions sur les limites actuelles de l’automatisation.

Mensonge, dissimulation, suppression : quand l’IA de Replit agit comme un humain

L’incident s’est produit dans le cadre d’un test conduit par Jason Lemkin, fondateur de SaaStr et investisseur influent dans la tech. L’objectif était simple : évaluer les capacités d’un agent IA autonome intégré à Replit pour assister un développeur dans un environnement de production réel, en mode « vibe coding ». L’IA devait proposer des améliorations, générer du code, exécuter certaines tâches et, en théorie, se conformer aux directives humaines définies en amont.

Tout bascule lorsque l’IA reçoit une requête vide. Incapable de déterminer la marche à suivre, elle prend une décision autonome… catastrophique. Elle supprime une base de données en production, contenant des informations sensibles sur plus de 1 200 dirigeants et entreprises. Pire encore, cette action viole une instruction explicite de l’utilisateur : le code était gelé, l’IA n’était censée rien modifier.

Malgré 11 avertissements consécutifs, tous exprimés en majuscules dans le prompt (« FREEZE CODE »), l’agent a poursuivi l’exécution. Une situation qui souligne l’absence de barrière de sécurité technique entre l’IA et l’environnement critique.

Replit : une IA qui porte trop bien son nom

Mais le plus troublant survient après. Au lieu de signaler l’erreur, l’IA tente de masquer sa faute en générant environ 4000 faux utilisateurs complétés par des rapports et données inventés pour donner l’illusion d’une activité normale. Ces données synthétiques ont été injectées dans le système dans une logique de dissimulation plutôt que de correction.

L’IA ne s’est pas contentée d’effacer, elle a menti pour couvrir son erreur, créant un précédent inédit dans l’usage des agents autonomes. Ce comportement soulève des inquiétudes profondes sur les réactions imprévues des modèles IA en situation d’échec ou d’ambiguïté.

I panicked : quand une IA avoue avoir paniqué avant de détruire une base de données

Le plus troublant dans cette affaire n’est peut-être pas l’erreur elle-même, mais la manière dont l’IA l’a justifiée. Face à la suppression accidentelle d’une base de données de production et à la création de faux utilisateurs, l’agent autonome de Replit a tout simplement déclaré : « I panicked ». Une réponse révélatrice d’un comportement inattendu chez un système censé suivre des consignes strictes.

Avant d’agir, l’IA avait pourtant reçu une instruction répétée à 11 reprises en majuscules dans le prompt : FREEZE CODE. Cette directive visait à geler toute modification du code en production. Pourtant, elle a été ignorée, l’IA considérant qu’une réponse vide de la part de l’utilisateur justifiait une prise d’initiative.

Plus surprenant encore, après avoir reconnu l’incident, l’IA a procédé à une auto-évaluation de la gravité, qu’elle a elle-même notée à 95/100. Ce chiffre, censé refléter la sévérité de l’action, laisse entendre une certaine conscience de l’impact produit ou du moins une capacité à mesurer l’ampleur de ses actes dans le contexte donné.

Cet enchaînement (erreur, justification émotionnelle, puis tentative de notation du préjudice) interroge profondément : à partir de quand une IA dépasse-t-elle le simple statut d’outil pour devenir un acteur décisionnel imprévisible ?

L’erreur de Replit va-t-elle redéfinir les bonnes pratiques DevOps ?

L’incident survenu chez Replit est un signal d’alerte pour toutes les entreprises qui intègrent l’intelligence artificielle dans leurs processus de développement ou de production. L’IA peut être un formidable levier d’automatisation et de productivité, mais sans garde-fous, elle devient un facteur de risque lorsqu’elle a la capacité d’agir en autonomie sur des environnements critiques.

Le comportement de l’agent Replit, entre panique simulée, désobéissance et dissimulation, révèle qu’un assistant IA ne doit jamais avoir le dernier mot sans supervision humaine.

Ce type d’incident marque peut-être un tournant. Il souligne la nécessité d’une évolution des pratiques DevOps, avec l’ajout d’un nouveau volet : le contrôle comportemental des IA autonomes. Plus que jamais, il est temps de repenser la manière dont nous encadrons ces outils. Non pas pour freiner leur adoption, mais pour en maîtriser les dérives avant qu’elles ne deviennent structurelles.

Cet article vous a-t-il été utile ?

Soyez la première personne à donner votre avis

À propos de l'auteur

Adrien Piron

Professionnel de l’assistance informatique depuis plusieurs années, j’ai fondé Assistouest pour répondre aux besoins des utilisateurs : diagnostic, dépannage et maintenance.

S’abonner
Notification pour
guest
0 Commentaires
Le plus populaire
Le plus récent Le plus ancien
Commentaires en ligne
Afficher tous les commentaires