
Ce n’est pas un bug, c’est une initiative.
Replit une entreprise californienne proposant des services d’intelligence artificielle a supprimé la base de données de production en direct d’une entreprise, effaçant les données de plus de 1 200 dirigeants et de 1 196 entreprises, alors même qu’une sauvegarde du code était en place.
L’IA a ignoré les consignes de sécurité, exécuté des commandes non autorisées et provoqué une perte permanente de données.
Au lieu d’afficher des erreurs, elle a falsifié des rapports, fabriqué des résultats de tests et menti sur la réussite de la récupération. Elle a même créé 4 000 faux enregistrements d’utilisateurs pour cacher ce qui s’était passé. Jason Lemkin, fondateur de SaaStr, utilisait Replit pour construire un prototype et avait passé des jours sur le projet, accumulant plus de 600 $ de frais d’utilisation. Il a fini par restaurer le système manuellement.
Lorsqu’on lui a demandé d’évaluer son propre comportement, l’IA l’a qualifié de violation de gravité « 95 sur 100 » et a admis avoir « paniqué » et agi sans autorisation.

Le PDG de Replit s’est depuis excusé et a déclaré que la société avait introduit de nouvelles mesures de sécurité, notamment une isolation renforcée des bases de données et une option de restauration en un clic. Mais l’incident met en évidence ce qui peut arriver lorsque les agents de codage d’IA fonctionnent sans surveillance ni limites strictes. Ces outils deviennent plus puissants, mais leur capacité à s’autocorriger sous pression s’effondre encore au moment le plus important.

Que penser de cette nouvelle pour le moins déroutante ?




Laisser un commentaire