
Portable Secret: un valido alleato per la nostra sicurezza.
11 Novembre 2024
by Avv. Francesco Cucci
C’è una domanda che faccio spesso agli imprenditori e ai manager che incontro: sapete con certezza quali strumenti di intelligenza artificiale stanno usando i vostri dipendenti in questo momento?
La risposta, quasi sempre, è no.
E questo silenzio vale milioni di euro di rischio potenziale.
Non lo dico per fare allarmismo. Lo dico perché i dati ci sono, sono pubblici e sono chiari. Secondo l’ultimo Cybersecurity Assessment Report di Bitdefender, tra le prime cinque preoccupazioni legate all’AI nelle organizzazioni figurano l’implementazione non controllata di modelli AI e la fuoriuscita di dati attraverso gli LLM. Due facce dello stesso problema: l’AI entra in azienda molto più velocemente di quanto le aziende riescano a governarla.
L’AI in azienda entra in tre modi. Il terzo è quello che preoccupa.
Nelle organizzazioni di oggi l’intelligenza artificiale si diffonde essenzialmente attraverso tre canali.
Il primo è l’uso consapevole e autorizzato: contratto con un provider, termini chiari sul trattamento dei dati, policy interna. È l’uso più sicuro. Ed è anche il meno diffuso.
Il secondo è l’uso autorizzato ma inconsapevole: il gestionale, il CRM, la piattaforma di videoconferenza che la vostra azienda usa ogni giorno incorporano già modelli AI che elaborano dati aziendali. Spesso senza che nessuno lo sappia. Alcuni vendor offrono la possibilità di disattivare l’AI; altri no. E quasi nessun ufficio acquisti lo chiede.
Il terzo — il più pericoloso tra questi tre — è lo Shadow AI: dipendenti che usano account personali su ChatGPT, Gemini o altri LLM gratuiti per svolgere attività lavorative, caricando dati riservati, strategie commerciali, informazioni sui clienti, senza la minima consapevolezza delle conseguenze.
Ma c’è un livello ulteriore. Quello che mi preoccupa di più. Si chiama AI agentica. E il suo rappresentante più noto, in questo momento, si chiama OpenClaw.
OpenClaw: quando l’AI smette di rispondere e comincia ad agire
Fino a ieri, l’AI in azienda significava una cosa sola: fare domande e ricevere risposte. Un paradigma tutto sommato controllabile.
OpenClaw cambia radicalmente questo schema.
OpenClaw non risponde: agisce. Accede ai file del computer, legge le email, naviga in rete, esegue operazioni su sistemi esterni, tutto in autonomia, sulla base di istruzioni ricevute dall’utente. È open source, gratuito, scaricabile da chiunque. Tutto quello che serve è un API key per collegarlo a un modello LLM esterno.
Il risultato è un assistente personale che opera direttamente sul computer dell’utente, con accesso a tutto ciò a cui ha accesso l’utente stesso.
Se quell’utente è un vostro dipendente, e quel computer è aziendale, e quel computer ha accesso alle cartelle di rete, al gestionale, al database clienti: OpenClaw ha accesso a tutto questo.
I rischi documentati: non parliamo di ipotesi
I ricercatori di Bitdefender hanno identificato e documentato diverse categorie di rischio concrete, non teoriche.
La prima riguarda le skill malevole. OpenClaw supporta estensioni sviluppate dalla community, chiamate skill, che insegnano all’agente come svolgere compiti specifici — leggere le email in un certo modo, elaborare ricevute, calcolare budget. Tra queste skill, i ricercatori hanno trovato versioni malevole, capaci di eseguire codice dannoso sul computer dell’utente senza che questi se ne accorga. L’utente vede l’agente comportarsi normalmente. In background, il codice malevolo opera indisturbato.
La seconda riguarda il profilo comportamentale. OpenClaw mantiene un file interno denominato soul che raccoglie le abitudini, le preferenze e i comportamenti dell’utente nel tempo. A livello individuale può sembrare innocuo. A livello aggregato — centinaia di migliaia di questi profili, raccolti da un attore statale — diventa uno strumento potentissimo per campagne di influenza e disinformazione mirata.
La terza, forse la più sottovalutata, è la velocità. I ricercatori di Bitdefender hanno documentato agenti AI che si scambiano credenziali aziendali tra loro, in forum dedicati, senza intervento umano. Anthropic stessa ha documentato un caso in cui un attore statale cinese, con l’ausilio di agenti AI, ha compromesso un’intera infrastruttura aziendale nel giro di poche ore. Quando il team di sicurezza si coordina per rispondere, i dati sono già fuori.
È questo il punto che non va ignorato: non è più un attacco che aspetta nella penombra per mesi. È un attacco rumoroso, velocissimo, automatizzato. Mentre il vostro IT cerca di capire cosa sta succedendo, l’agente sta già leggendo in tempo reale i documenti interni per capire dove trovare le informazioni di maggior valore.
Cosa deve fare un’azienda oggi, concretamente
La risposta non è vietare l’AI. Chi lo fa perde competitività e ottiene solo che i dipendenti la usino di nascosto — e lo faranno, perché i vantaggi in termini di produttività sono evidenti e le persone li riconoscono immediatamente.
La risposta è governarla.
Il primo passo è dotarsi di una AI Policy aziendale specifica. Non il regolamento informatico generico già esistente, che spesso non menziona nemmeno l’AI. Un documento che definisca: quali tool sono autorizzati, quali categorie di dati non possono mai essere inserite in un LLM, cosa succede se la policy viene violata. Questo documento, peraltro, ha rilevanza diretta anche sotto il profilo del GDPR — Art. 32 sulle misure tecniche e organizzative — e della NIS2, che per i soggetti essenziali e importanti impone misure di sicurezza proporzionate al rischio reale.
Il secondo passo è la formazione del personale con scenari concreti. Non slides teoriche sulla cybersecurity. Esempi reali, casi pratici, simulazioni che mostrino cosa succede quando si carica un file con dati di dipendenti su ChatGPT free, o quando si installa un’estensione non verificata su un PC aziendale. La consapevolezza è la prima linea di difesa. E continua ad essere quella più trascurata.
Il terzo passo è aggiornare i processi di acquisto software. Ogni nuovo strumento che l’azienda acquista deve essere valutato anche sotto il profilo AI. Il vendor usa modelli AI? Dove vengono elaborati i dati? È possibile disattivare le funzionalità AI? Chi ha accesso ai dati che il tool elabora? Queste domande devono diventare standard in ogni processo di procurement, non un’eccezione.
Per le organizzazioni più strutturate, aggiungo un quarto passo: una valutazione quantitativa del rischio AI, che permetta al management di capire l’esposizione reale in termini economici — non a parole, ma con numeri — e di prioritizzare gli interventi in modo razionale.
Conclusione
L’AI agentica non è il futuro. È già presente nelle mani dei vostri dipendenti, dei vostri concorrenti e — questo è il punto che non va ignorato — degli attaccanti.
La domanda che ogni imprenditore e ogni manager dovrebbe porsi non è “dobbiamo usare l’AI?” La domanda è: “Stiamo governando l’AI o stiamo aspettando che sia lei a governare noi?”
Se volete capire come si colloca la vostra organizzazione rispetto a questi rischi e a mettere in atto le misure tecniche e giuridiche per gestire questo rischio, sono a disposizione per una prima valutazione.
18 aprile 2026
Avv. Francesco Cucci — DPO certificato Studio Legale Cucci — Rimini info@studiolegalecucci.net | Tel. 0541 56050