Ci siamo velocemente abituati all’utilizzo della IA nelle attività quotidiane ma uno dei campi in cui la IA è entrata davvero con prepotenza è quello dello sviluppo. La IA infatti si rivela spesso una manna dal cielo, nello scovare bug e ad individuare possibili falle di sicurezza (a volte anche esagerando un po’, va detto), ma a volte anche progettando e sviluppando progetti completi.
Proprio per questo, quando uno di questi strumenti, su cui magari hai costruito parte del tuo workflow quotidiano e su cui hai investito con un profumato abbonamento mensile inizia a perdere colpi, il problema può diventare serio.
Ed è proprio ciò che sembra essere successo di recente nel mondo di Anthropic, che con il suo Claude Code si è ritagliata una fetta di mercato importante… inutile nasconderlo, fino a poche settimane fa era considerato da tutti il migliore nel suo campo, e dai suoi competitor il prodotto da battere. Oggi invece ci ritroviamo con una mezza rivolta social e un post su Reddit intitolato “Claude Is Dead” che fa più del doppio degli upvote della risposta ufficiale dell’azienda.
Insomma, è successo un patatrac. Ma la cosa interessante è che non si tratta solo di lamentele campate in aria. Ci sono due motivi molto concreti dietro questa “campagna di cancellazione di massa”. E uno di questi, diciamolo subito, non ha nulla a che fare con la qualità del modello.
Il primo colpo: cambiano i prezzi (e i limiti)
Ora, la prima mazzata è arrivata il 28 agosto 2025. Anthropic ha deciso di cambiare le regole del gioco per i piani a pagamento. Prima la situazione era semplice: avevi un tot di messaggi che potevi usare in una finestra di 5 ore. Finiti quelli, aspettavi e ricominciavi.
Adesso, invece, oltre a quel limite, hanno aggiunto un tetto settimanale. Il risultato? Molti utenti, anche quelli con i piani più costosi da 200 dollari al mese, si sono trovati a sbattere contro un muro, impossibilitati a finire i propri task. Paghi profumatamente per un servizio “Pro” e ti ritrovi con il lavoro bloccato. Una mossa che, comprensibilmente, ha fatto infuriare parecchi.
E questo, a mio avviso, fa emergere un punto cruciale. C’è un effetto collaterale non da poco per chi usa l’IA per il coding in modo improprio, senza la giusta conoscenza. Il rischio è quello di delegare così tanto da non comprendere più a fondo le dinamiche del codice che viene generato, ritrovandosi in un batter d’occhio con codice poco leggibile e incomprensibile perché, di fatto, non è stato scritto da loro.
Il punto su cui riflettere è questo: il codice scritto deve essere sempre comprensibile e revisionabile da chi lo sta sviluppando. Non possiamo permetterci di perderne il controllo. Il modo più semplice per evitarlo è avere un metodo: non demandare alla IA progetti completi, ma frazionare tutto il lavoro. Bisogna pretendere dalla IA non solo codice molto dettagliato e leggibile, ma soprattutto le spiegazioni, che poi sta a noi sviluppatori capire fino in fondo.
In questo modo, anche se la IA dovesse piantarci in asso con un blocco improvviso, potremmo continuare il progetto in autonomia. Il nostro lavoro non si fermerebbe completamente in attesa dello sblocco delle funzionalità, perché saremmo in grado di poter proseguire il lavoro su cui la IA ci ha dato una mano a sviluppare, non il lavoro della IA.
Il secondo colpo: “Non funziona più?”
E qui arriviamo al secondo motivo, quello che ha fatto scattare l’allarme generale: la qualità percepita. La sensazione diffusa tra gli sviluppatori è che Claude sia peggiorato. Che le risposte siano meno precise, che il codice generato sia di qualità inferiore.
La teoria che serpeggia online è quella del classico “braccino corto”: Anthropic potrebbe aver degradato volontariamente il modello (magari con tecniche come la quantizzazione) per ridurre i costi di calcolo. Sarà vero? Chi lo sa. Fatto sta che molti hanno iniziato a guardarsi intorno, riscoprendo alternative come Codex di OpenAI.
La cosa più clamorosa è stata l’analisi di uno YouTuber, GosuCoder, che con i suoi benchmark privati ha piazzato Claude Code quasi in fondo alla classifica, mentre prima occupava da tempo le primissime posizioni. Certo, bisogna dire che i suoi test non sono open source (per non farseli “copiare” dai produttori di AI, dice lui), quindi il risultato va preso con le pinze, ma l’impatto mediatico è stato enorme.
La risposta di Anthropic e la situazione reale
Messa alle strette, Anthropic è dovuta intervenire. Con un post ufficiale, ha fatto due cose importanti:
- Ha ammesso l’esistenza di bug: Hanno confermato che un paio di bug hanno effettivamente peggiorato la qualità degli output per alcuni utenti e che sono stati risolti.
- Ha negato il “downgrade” volontario: Hanno smentito di aver intenzionalmente “castrato” il modello per risparmiare sui costi.
Quindi, qual è la verità? Probabilmente, come sempre, sta nel mezzo. Da un lato, c’è un problema concreto e fastidioso legato ai nuovi limiti di utilizzo. Dall’altro, c’è stato un problema di qualità reale (ufficialmente i bug), che però è stato gonfiato dal solito dramma che si crea su Reddit.
Le statistiche, infatti, ci dicono che l’uso di Claude su alcuni tool specifici è calato (dall’83% al 70%), ma è ancora il leader indiscusso del mercato. Se c’è chi parla di “morte” di Claude mi sembra davvero che stia esagerando.
La lezione, però, è chiara, e forse è duplice.
Da un lato, c’è quella per Anthropic: la fiducia è tutto. Tra un cambio di pricing poco gradito e un calo di qualità (seppur si rivelerà temporaneo), hanno rischiato grosso. La loro risposta trasparente è un buon primo passo, ma ora dovranno lavorare sodo per riconquistare gli sviluppatori delusi.
Dall’altro lato, c’è una lezione ancora più importante per noi. Questa vicenda è un promemoria fondamentale: non possiamo diventare completamente dipendenti da uno strumento, per quanto potente sia. Come abbiamo visto, basta un cambio di policy o un bug per bloccare tutto. La vera abilità nell’era dell’IA non sta nel farsi scrivere il codice, ma nel mantenere sempre il controllo, nel pretendere spiegazioni e nell’usare questi strumenti come un copilota esperto, non come un pilota automatico che non sappiamo governare.
In fondo, la fiducia in un’azienda come Anthropic può essere ricostruita. Ma la fiducia nel nostro metodo di lavoro, quello che ci permette di andare avanti anche quando un servizio online ci pianta in asso, è quella che non dobbiamo perdere mai.