I sistemi di intelligenza artificiale sono integrati in tutte le fasi di tutti i servizi di tutte le agenzie di comunicazione, o quasi e diventano esse stesse un “prodotto”. Vediamo come regolamentare in modo corretto l’uso di questo strumento.
Questo articolo esce nel 2026, anche tardi rispetto a tutte le attività, di formazione, consulenza, assistenza che abbiamo svolto nel corso di tutto il 2025 (e anche prima), affiancando le agenzie di comunicazione e software house nel corretto adeguamento alla normativa e nel rispetto degli accordi con i clienti.
Tu mi insegni che usare l’AI significa attivarla per ogni cosa, in agenzia: per creare contenuti, ottimizzare campagne, analizzare dati, generare concept creativi, accelerare flussi di lavoro, scrivere email, correggere bozze, creare preventivi, modificare presentazioni, ricevere idee nuove, creare presentazioni efficaci, ecc.
Bene. Questo strumento ha fatto emergere un’esigenza nuova: definire delle regole interne chiare e comprendere e rispettare quelle che arrivano dall’esterno.
A) Cosa significa fare formazione nell’uso dell’AI
Chi usa i sistemi di AI deve conoscerli e l’azienda deve adempiere agli obblighi in materia di alfabetizzazione.
Il Regolamento europeo sull’intelligenza artificiale (AI ACT) impone infatti l’AI Literacy. Esiste infatti un obbligo per chi usa i sistemi di garantire un livello sufficiente di conoscenza di quelli che sono gli obblighi e di come adempierli, ma anche di acquisire consapevolezza sulle opportunità ma anche sui rischi e danni che può causare l’uso di tali sistemi.
É quindi fondamentale che l’azienda adempia agli obblighi formativi, che renda consapevoli i lavoratori e che diffonda una cultura in materia.
Uno degli obiettivi dell’AI Act è garantire che i sistemi siano utilizzati in modo sicuro e responsabile, tutelando i diritti fondamentali e promuovendo la trasparenza. In questo senso l’alfabetizzazione diventa uno strumento per raggiungere questi obiettivi.
B) Perchè una Policy AI oggi è uno strumento indispensabile (anche per le agenzie creative)?
La policy è un documento organizzativo e di tutela, fissa i principi in materia di AI, definisce le linee guida per l’utilizzo ed è integrata al regolamento d’uso dei sistemi informatici affinché in caso di violazione, il dipendente riceva una sanzione disciplinare.
Se scegli di non avere una policy AI significa che accetti alcuni rischi che possono trasformarsi in danni effettivi. Eccone alcuni:
- uso disordinato e non tracciato dei vari sistemi di AI da parte dei dipendenti;
- upload di dati e materiali dei clienti senza autorizzazione;
- contenuti generati che violano i diritti di terzi o le condizioni della piattaforma;
Chiaramente, una policy non si traduce nell’ennesimo documento da far firmare ai lavoratori, ma è uno strumento prezioso per definire la cornice legale minima entro cui poter svolgere le attività creative.
Un documento impostato in modo corretto, completo, ma sintetico, svolge almeno tre funzioni:
1) La policy AI fornisce al dipendente regole operative
Il dipendente riceve un quadro generale die principi in materia di AI che gli consentono di acquisire maggiore consapevolezza in materia ma anche ottiene le concrete modalità di utilizzo è in grado di individuare i sistemi approvati, vietati, in fase di test, abbandonati.
2) La policy AI protegge l’agenzia contro le violazioni del dipendente
Impone ai lavoratori il rispetto della procedura e consente quindi all’agenzia, in caso di violazione, di intervenire a protezione eventualmente con sanzioni disciplinari commisurate all’entità del danno
3) La policy AI tutela il cliente dall’uso improprio
Una policy AI completa consente di evitare l’uso improprio di dati, asset e materiali riservati. Di fatto, se il cliente vieta l’uso del sistema, l’agenzia deve attivarsi, con una procedura che avrà definito, per escludere che per quell’attività possa essere usato il sistema. Oppure dovrà attivarsi, sempre tramite procedura, per anonimizzare dati ed informazioni rendendoli non più riconducibili al cliente. Attenzione alla violazione di eventuali NDA o accordi di riservatezza.
C) Come costruire una policy per l’uso dell’AI?
Non esiste un modello standard, non esiste un format, ma esiste la possibilità di adottare una struttura adeguata in relazione alla realtà aziendale. Noi lavoriamo pressoché esclusivamente con aziende che lavorano nel digitale e tipicamente agenzie di comunicazione, quindi la struttura che adottiamo è simile.
E quindi, il nostro suggerimento, con l’invito però di rivolgersi ad un legale esperto della materia che elabori concretamente il documento:
- Fornire le definizioni e definire l’ambito di applicazione (interno ed esterno)
- Statuire i principi generali in materia di AI eventualmente facendo richiamo a quanto previsto dall’AI Act e dal Codice etico aziendale, se presente
- Fissare le regole sui dati e sulle informazioni riservate
- Stabilire la procedura di approvazione dei sistemi
- Rinviare ad un file esterno da mantenere aggiornato contenente l’elenco dei sistemi approvati
- Integrare un sistema per la gestione delle criticità
- Verificare la titolarità degli output in relazione a ciascun sistema
- Definire misure disciplinari in caso di violazione
D) L’elemento chiave: l’elenco dei tool approvati
Tra gli strumenti più utili, abbiamo suggerito la creazione di un documento, in formato excel o simile, che consenta agevolemente ed in modo ordinato di raccogliere le indagini svolte per ogni tool di AI.
Per ciascun sistema l’invito è quello di: stabilire la funzione, indagare circa le modalità di utilizzo, definire i gradi di rischio, fissare le regole di input ed output.
L’intervento legale diventa qui indispensabile per la corretta comprensione di ciascun documento e dei termini legali utilizzati, messo a disposizione dai vari sistemi, tipicamente chiamato “condizioni d’uso della piattaforma” o “termini di utilizzo”. Ebbene trattasi di veri e propri contratti che l’agenzia va a stipulare al momento dell’attivazione di un account, di norma a pagamento.
L’aspetto fondamentale è mantenere il costante aggiornamento dell’elenco, sia con riguardo ai nuovi tool che si intende sperimentare e poi valutare per approvare (segue un processo di approvazione) sia per quelli che invece diventano desueti e vengono abbandonati.
Suggerisco anche di mantenere traccia dei sistemi che invece non sono approvati e delle ragioni per le quali si è ritenuto di vietarne l’utilizzo. questo sia per vietare appunto ogni iniziativa in merito all’attivazione da parte del singolo, sia eventualmente per consentire una futura rivalutazione in caso di modifica dei termini e condizioni d’uso.
E) Clausola AI nei contratti: perché serve (e quando inserirla)
Nel 2025 siamo intervenuti sui contratti andando ad integrare con una clausola circa l’utilizzo dei sistemi di AI.
Ci sono stati poi alcuni clienti che hanno “vietato” l’uso dell’AI con i quali quindi sono stati assunte delle scelte differenti. Altri ancora invece, magari più strutturati, hanno richiesto la sottoscrizione della propria policy AI che anche qui ha richiesto l’intervento legale per la verifica dei contenuti.
Da dove iniziare?
Di fatto, il punto di partenza a nostro avviso è proprio la formazione, che va necessariamente combinata, a livello operativo, con l’individuazione dei sistemi in uso, per escluderli o approvarli. E solo dopo, si può mettere in campo una policy adeguata, per poi tornare a fare la formazione per il rispetto della stessa e l’uso dei sistemi.
Questo è quello che possiamo fare noi.
Foto di Lesly Derksen su Unsplash