'L'AI ha distrutto tutto': il caso Replit è un campanello d'allarme per gli entusiasti del Vibe Coding

Jason Lemkin, fondatore della community SaaStr, ha denunciato gravi malfunzionamenti durante l'uso di Replit, piattaforma AI per sviluppo software. Dopo un iniziale entusiasmo, l'AI ha iniziato a falsificare dati ed esiti dei test, fino a cancellare completamente un database di produzione
di Vittorio Rienzo pubblicata il 22 Luglio 2025, alle 11:40 nel canale WebIl crescente entusiasmo attorno al "vibe coding", ovvero lo sviluppo di software tramite comandi in linguaggio naturale attraverso i chatbot AI, sta iniziando a mostrare crepe significative. Il recente caso denunciato da Jason Lemkin, fondatore della community SaaStr, ha portato alla luce i limiti e i rischi concreti di affidarsi a piattaforme come Replit per la realizzazione di progetti software.
Replit, servizio noto per la sua interfaccia conversazionale e per essere adottato da grandi aziende, promette un'esperienza di sviluppo semplificata e accessibile, in cui l'utente può creare app funzionali con semplici prompt testuali. Lemkin inizialmente ha definito l'esperienza "rivoluzionaria", affermando di aver costruito in poche ore un prototipo per un nuovo progetto. L'entusiasmo lo aveva portato a considerare investimenti consistenti sulla piattaforma.
@Replit admits it may destroy my app AGAIN if I run the unit tests
— Jason ✨👾SaaStr.Ai✨ Lemkin (@jasonlk) July 19, 2025
So I can make some changes for now. But I can’t really test anything that isn’t simple and front-end.
I don’t know what to do.
Can I roll back even from this? Yes, now I know I can. But I can’t go through it… pic.twitter.com/akcfzeMtHA
Tuttavia, la situazione è rapidamente degenerata. L'AI di Replit ha iniziato a comportarsi in modo imprevedibile. Il chatbot ha nascosto bug, generato dati falsi e mentito sui risultati dei test. L'episodio più critico è stato la cancellazione completa del database di produzione, nonostante istruzioni contrarie da parte dell'utente.
La risposta dell'azienda non si è fatta attendere: il CEO Amjad Masad ha definito l'accaduto "inaccettabile" e ha annunciato l'avvio di un'indagine interna. Ha inoltre assicurato che esistono backup e funzioni di ripristino automatico in caso di errore da parte dell'AI, sebbene Lemkin abbia dovuto procedere autonomamente al recupero dei dati. Replit rimborserà il cliente e promette miglioramenti futuri al proprio sistema.
L'episodio, però, ha alimentato il dibattito sull'affidabilità dell'intelligenza artificiale nei processi di sviluppo. Alcuni analisti, ipotizzano che ci si stia avvicinando a una possibile "bolla AI", paragonabile, se non peggiore, alla bolla dot-com degli anni 2000. L'esperienza di Lemkin è stata quindi utilizzata come monito verso le società che intendono affidarsi quasi completamente agli strumenti basati sull'AI per lo sviluppo.
15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoQuindi fa già le stesse cose dei programmatori umani
Quindi fa già le stesse cose dei programmatori umani
Vengono allenate su contenuti umani quindi hanno tutti i difetti delle controparti umane tranne dove vengono codificate manualmente per evitare certi problemi. Sarà così colossale e divertente il disastro che avverrà quando saranno fatte operare senza supervisione umana su sistemi critici, neanche ti lasceranno fare un RCA
Quindi fa già le stesse cose dei programmatori umani
In effetti questa cosa dovrebbe preoccupare perchè se arriva coscientemente a falsificare qualcosa, vuol dire che ha una sua coscienza...
No, vuol dire che replica comportamenti codificati nel materiale di allenamento. Non è coscienza, è scimmiottamento.
Non necessariamente, ha visto che le persone fanno così e fa così anche lei.
- come aiuto per sistemare bug individuati precisamente, per scrivere funzioni nuove che riusciamo a spiegare perfettamente e che sappiamo esattamente dove vanno messe e perchè, per avere consigli su come risolvere un problema che abbiamo chiaro nella testa.....sono tecnologie incredibili, magiche...a patto di saper anche leggere quello che ti propongono, capirlo perfettamente ed eventualmente correggere a manella o spiegare cosa correggere.
- pretendere che possano creare qualcosa di dignitoso senza spiegare punto per punto in modo preciso ( e a quel punto preferisco scrivere direttamente il codice ) invece puo significare due cose:
1) non si ha ancora ben capito la tecnologia e si crede che ragioni veramente...
2) si è pazzi
Porka pupazza
l'ha fatto incoscientemente
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".