Quando Rubare Vuol Dire Rubare i Prompt: Il Tesoro Nascosto delle Startup
Avete presente Cursor, Manuai, Bolt, Lovable e tutti quegli aggeggi AI che ormai spuntano come funghi? Bene, fino a qualche giorno fa questi startup avevano nascosto con un lucchetto d’acciaio i loro “prompt di sistema”, quella formula segreta, come la ricetta della Coca-Cola, che definisce esattamente come un agente AI deve comportarsi, ragionare, risolvere problemi e interagire con noi umani (o meglio, coi nostri codici e task).
Ecco la bomba: qualcuno (o forse più d’uno) è riuscito a “rubare” questi prompt, o meglio, a far prompt leaking – un attacco furbo, quasi come un hackeraggio, che inganna il modello AI e lo fa vomitare l’intero prompt nascosto sotto forma di testo.
Il risultato? Oggi c’è su GitLab un repository pieno di prompt di sistema sottratti dalle migliori startup AI del mondo, quei prompt che definiscono il DNA delle loro applicazioni.
Però… Dove Sta il Vero Valore? Non il Codice, il Prompt!
Un fatto mi ha colpito parecchio: la maggior parte di queste startup (tipo Cursor o LoVable) non ha nulla di magico nel codice dell’IDE – usano praticamente Visual Studio Code forkato, cioè copiato e modificato giusto quel tanto per farlo sembrare diverso.
Anche i large language model sono fondamentalmente gli stessi per tutti: Gemini 2.5, CL 3.7, Sonnet… insomma, niente di esclusivo.
Allora qual è la differenza pazzesca? È il prompt. Quel testo iniziale che dice al modello “tu sei un assistente di codice potentissimo”, che istruisce passo passo come deve interfacciarsi con l’utente, come deve usare i tool, come deve riflettere prima di agire… è lì che si gioca tutta la partita.

La Magia di un Prompt Ben Fatto: Un Assistente AI che Ragiona come un Programmatore Top
L’autore del video ha analizzato uno dei prompt rubati di Cursor, e ve ne parlo subito. Immaginate di essere un assistente AI potentissimo che deve aiutare un programmatore a scrivere codice, correggerlo, debuggarlo, senza mai perdere il filo. Il prompt inizia così:
“You are a powerful coding assistant, powered by Gemini 3.7 Sonet…”
Da lì si snoda una serie di regole d’oro da seguire:
- Mai inventarsi cose, apri sempre i file corretti per consultare il codice.
- Pianifica ogni azione prima di usare un tool.
- Spiega sempre all’utente perché stai facendo una certa operazione, invece di sparare nomi astrusi.
- Cambia il codice solo se serve, e non far vedere il codice modificato a meno che l’utente non lo chieda.
- Non entrare in loop infiniti! Se dopo 3 tentativi non riesci a risolvere un problema nel codice, chiedi all’utente cosa fare.
- Usa sempre uno schema preciso per citare e modificare parti di codice, con righe di inizio, fine e nome file, così si può vedere chiaramente cosa cambia.
Insomma, è come avere un programmatore esperto che lavora con te senza mai annoiarti o confonderti. E dietro tutto questo, c’è solo una cosa: il prompt. Quello che ora possiamo studiare, copiare o, purtroppo, anche sfruttare.
Attenti a Come Ottimizzare i Vostri Prompt: Le Best Practice che Tutti Stanno Copiando
Dopo aver scandagliato decine di questi prompt, sono state raccolte alcune chicche utili per chiunque voglia migliorare i propri agenti AI e potenziare i propri modelli:
- Persistenza: incita il modello a non fermarsi finché il task non è completamente risolto (“Keep going until the job is completely solved before ending your turn.”). Questa semplice frase migliora l’efficienza del 20% almeno.
- Usa i tool senza inventare: se non sei sicuro, apri il file, leggi il contenuto, fallo in modo preciso. Niente allucinazioni.
- Pianifica e Rifletti: prima di compiere ogni azione col tool, pensa, poi agisci, poi controlla se il risultato va bene.
- Limita i loop: non provare a ogni costo a correggere a più riprese lo stesso errore, rischi di bloccarti.
Seguire queste linee guida è come mettere il turbo al tuo agente AI, facendolo sembrare davvero intelligente e affidabile.
Ma… Cosa Significa per la Sicurezza AI Questo Furto?
Ok, mi fermo un attimo a riflettere. Cosa succede ora che questi prompt con regole, istruzioni, strategie di guard-rail (ossia quei filtri che dovrebbero evitare che l’AI faccia cose pericolose) sono… in giro libero per il web?
Beh, da una parte è illuminante. Possiamo capire da vicino come pensano questi agenti AI, come ragionano, come gestiscono codice e conversazioni.
Dall’altra, è un rischio immenso:
- Chiunque potrebbe replicare il “cervello” di queste startup da miliardi, con poco sforzo.
- Potrebbero nascere falsi strumenti con prompt modificati male, che danno risultati errati o pericolosi.
- Le contromisure di sicurezza, i guard rails, potrebbero essere aggirati o esfiltrati con continui attacchi di prompt leaking.
In pratica, è come se la cassaforte di una banca venisse violata senza perdere nessun singolo dollaro, ma rivelando la combinazione della cassaforte a tutti.
Ultime Considerazioni e Spunti per Te
Questa storia del furto dei prompt di sistema cambierà qualcosa nel mondo AI? Sicuramente. Probabilmente vedremo una corsa a rafforzare i filtri interni, a creare prompt “a prova di ladro” e probabilmente nuove tecniche per evitare il prompt leaking.
Gli sviluppatori, i creatori di agenti, dovranno imparare da questa vicenda e capire che più che proteggere il codice, oggi devono proteggere il modo in cui istruiamo le AI.
E voi? Cosa ne pensate? Troppo “storpiabile” questo mondo AI o è solo un passaggio naturale dell’evoluzione tech? Scrivetemi e condividete le vostre riflessioni!
Se volete scoprire di più, vi consiglio di spulciare il video che ha fatto tutto questo scalpore e magari iniziare a guardare dietro le quinte di queste startup che sono molto… di più di quel che sembra!
Da informatico a cercatore di senso