Guida passo passo
Questo articolo del centro assistenza presenta l’assistente DPIA — uno strumento interattivo che ti guida passo dopo passo nella valutazione d’impatto sulla protezione dei dati prima di introdurre un servizio di intelligenza artificiale nella tua organizzazione.
I testi qui sotto sono usati come pannelli di supporto nel centro assistenza, uno per passaggio. Ogni pannello spiega perché si esegue il passaggio e a cosa prestare attenzione. In ogni passaggio l’assistente pone domande mirate, recupera automaticamente informazioni da leggi e documentazione Intric e compila le tue risposte in un documento DPIA adatto al modello della tua organizzazione.
Usa il selettore dei passaggi qui sotto per procedere al tuo ritmo.
Introduzione e modello
Scegli un modello per il documento finale e carica eventuali documenti di policy interni, come una policy sull’IA o sulla protezione dei dati. L’assistente li userà come contesto nelle valutazioni giuridiche successive. Se non hai documenti propri, seleziona una delle opzioni di modello integrate e continua senza.
L’assistente:
- Legge la struttura del modello e identifica tutti i campi da compilare
- Chiede se il comune (o la tua organizzazione) dispone di policy interne collegate al GDPR o all’IA
- Salva modello e documenti di policy come riferimento per l’intero processo di valutazione
📌 Scenario di esempio: Gli esempi in questa guida provengono da una DPIA sull’analisi e la sintesi assistite dall’IA delle risposte a consultazioni, condotta da un comune con Intric.
Scopo
La finalità è il punto di partenza dell’intera DPIA. Sii concreto nella descrizione: «Assistente IA per insegnanti» è troppo generico; «Assistente IA che aiuta gli insegnanti a formulare feedback individuale sui testi degli studenti» imposta correttamente il contesto. Tre domande di classificazione regolano quanto debba essere approfondita la valutazione nei passaggi successivi.
L’assistente:
- Chiede una descrizione concreta di cosa deve fare il servizio di IA e per chi
- Pone tre domande di classificazione sui dati personali, l’impatto sulle persone e l’uso interno rispetto a esterno
- Consulta la legislazione pertinente per verificare che la finalità sia lecita
✏️ Esempio:
Il comune usa un assistente IA basato su Intric per supportare gli uffici nell’analisi e nella sintesi delle risposte in arrivo alle consultazioni. Il servizio è uno strumento di supporto interno nel processo di gestione delle pratiche.
- Dati personali trattati: Sì
- Incide su decisioni individuali: No
- Uso interno
Contenuto e tecnologia
Qui mappi quali dati personali sono trattati, in quali sistemi e come fluiscono. Indica quali funzioni di Intric sono attivate, ad esempio ricerca web o analisi delle immagini. Ricorda che gli utenti possono inserire informazioni sensibili in testo libero anche se il sistema non è progettato per questo.
Per saperne di più, consulta la documentazione su architettura della piattaforma e flussi di dati per funzione.
L’assistente:
- Mappa le attività di trattamento, le fonti dati e le categorie di dati personali presenti
- Recupera automaticamente informazioni su piattaforma e flussi di dati dalla documentazione Intric
- Segnala avvisi per dati sensibili, interessati vulnerabili e trasferimenti verso paesi terzi
✏️ Esempio:
Sistemi coinvolti:
- ACOS Websak — fascicolo e archiviazione primaria
- Intric — un assistente IA (GleSys AB, Svezia)
- Word — sintesi finale
Funzioni attivate in Intric: strumenti per cercare nei testi normativi, ricerca web.
Risposte sensibili alle consultazioni (circa 1 su 100) gestite manualmente e non incluse nel flusso IA.
Classificazione e rischio
L’assistente esegue una valutazione automatica del rischio in base ai passaggi 1 e 2 e tu confermi che è corretta. Presta particolare attenzione ai rischi specifici dell’IA come output errati (allucinazione) e risultati distorti. Uno strumento formalmente solo di supporto può diventare rapidamente decisivo se gli utenti vi si affidano troppo.
L’assistente:
- Classifica le esigenze di protezione delle informazioni su tre dimensioni: riservatezza, integrità e disponibilità
- Valuta fattori specifici dell’IA come il livello di autonomia e l’impatto sugli interessati
- Produce una matrice dei rischi con probabilità e conseguenza per ogni rischio identificato
✏️ Esempio:
- Riservatezza: 2 — Le risposte alle consultazioni sono atti pubblici ma contengono nomi, indirizzi e opinioni
- Autonomia: Supporto — l’IA genera proposte; tutte le decisioni spettano agli uffici
- Rischio di allucinazione: Probabilità media / impatto basso
- Livello di rischio complessivo: Medio
Valutazione giuridica
L’assistente cerca automaticamente nel GDPR e nella legislazione nazionale pertinente per proporre una base giuridica adeguata. Il tuo compito è confermare che la valutazione corrisponde a come lavorate davvero. Verifica che la base copra tutti i dati personali e l’intero caso d’uso. Se si trattano categorie particolari di dati ai sensi dell’articolo 9, è necessaria anche un’eccezione separata.
L’assistente:
- Cerca automaticamente nel GDPR e nelle leggi nazionali pertinenti per proporre una base giuridica adeguata
- Verifica che la base copra tutte le finalità, le categorie di dati e le operazioni
- Segnala se il trattamento richiede un’eccezione ai sensi dell’art. 9 del GDPR
✏️ Esempio:
- Base giuridica: GDPR art. 6(1)(e) — trattamento necessario per l’esecuzione di un compito di interesse pubblico
- Base integrativa (esempio comunale svedese): Förvaltningslagen § 37 (obbligo di consultazione) e Plan- och bygglagen cap. 5 § 2
- Art. 9: non atteso nel flusso IA
- La procedura di controllo in sede di protocollo garantisce che i documenti sensibili non diventino pubblici e non entrino mai nel flusso IA
Principi di protezione dei dati
L’assistente esamina ogni principio dell’articolo 5 del GDPR e propone misure in base alla vostra descrizione e alla normativa. Per ogni principio recupera informazioni rilevanti sul funzionamento di Intric — ad esempio come conservazione, controllo degli accessi e limitazione delle finalità sono implementate nella piattaforma — e le collega ai requisiti del GDPR. Aggiungete il contesto della vostra organizzazione così che le misure proposte siano pertinenti.
L’assistente:
- Recupera automaticamente informazioni su come Intric soddisfa ciascun principio di protezione dei dati, ad esempio conservazione, controllo degli accessi e limitazione delle finalità nella piattaforma
- Collega le funzioni di Intric ai requisiti del GDPR e propone misure complementari per la vostra organizzazione
- Fonda la valutazione per ciascun principio sul testo del GDPR
✏️ Esempio:
- Trasparenza: Il comune aggiorna il modello di lettera di consultazione con: «Le risposte alle consultazioni saranno trattate con strumenti IA per produrre una sintesi. I contributi che contengono dati personali sensibili sono stati esclusi dal trattamento IA.»
- Limitazione delle finalità: I sub-responsabili di Intric non usano mai i dati dei clienti per l’addestramento dell’IA e applicano zero conservazione dei dati (zero data retention).
- Minimizzazione: Nomi e indirizzi si conservano solo dove la rilevanza geografica è obiettivamente giustificata.
Sicurezza e controllo degli accessi
La responsabilità è condivisa tra la tua organizzazione e Intric. Entrambe le parti devono essere a posto.
Misure della tua organizzazione
Sezione intitolata “Misure della tua organizzazione”Verifica di avere procedure documentate per la gestione degli incidenti e il follow-up dei log e che la formazione pertinente sia completata prima del go-live.
Misure di Intric
Sezione intitolata “Misure di Intric”Le misure tecniche di protezione di Intric come crittografia, logging e certificazioni sono recuperate automaticamente dalla documentazione Intric. Il tuo compito è confermare che siano sufficienti per il tuo livello di rischio.
L’assistente:
- Recupera automaticamente le misure tecniche e organizzative (TOM) di Intric dalla documentazione Intric
- Documenta le misure proprie del comune (o della tua organizzazione) in base alle tue risposte
- Verifica che il livello di protezione sia proporzionato al livello di rischio del passaggio 3
✏️ Esempio:
Misure della tua organizzazione:
- MFA attivato tramite AD/Entra ID del comune
- Integrazione SSO con Intric
- RBAC configurato — solo gli uffici competenti hanno accesso
- Formazione obbligatoria (alfabetizzazione IA e uso pratico) completata
Misure di Intric:
- Certificato ISO 27001:2022
- TLS 1.2+ in transito, crittografia standard a riposo
- Zero conservazione con tutti i fornitori di modelli IA — i prompt vengono eliminati subito dopo la risposta
Distribuzione e configurazione
Traduci la valutazione in impostazioni concrete. Un rischio comune è il go-live con impostazioni predefinite che non corrispondono alla valutazione del rischio — ad esempio ricerca web ancora attiva o periodi di conservazione mai impostati.
Misure della tua organizzazione
Sezione intitolata “Misure della tua organizzazione”Assicurati che un responsabile sia designato, che il DPO abbia dato l’ok, che gli utenti siano formati e che la routine di cancellazione sia stata testata.
Funzioni disponibili in Intric
Sezione intitolata “Funzioni disponibili in Intric”Configura RBAC, periodi di conservazione, logging e funzioni IA in base alla tua valutazione. Consulta la guida di Intric alla configurazione sicura per una checklist completa prima del lancio.
L’assistente:
- Verifica che la configurazione corrisponda ai requisiti dei passaggi 3–5
- Completa la checklist pre go-live e individua eventuali lacune
- Verifica conservazione, RBAC, logging e funzioni IA rispetto alla valutazione
✏️ Esempio:
- Regola di conservazione: 120 giorni, cancellazione automatica e definitiva
- Fornitori di modelli IA: cancellazione immediata (zero conservazione)
- RBAC configurato
- Insights disattivato (verificato)
- DPA con Intric AB firmato e registrato prima del go-live
Revisione
La valutazione è controllata da due revisori IA indipendenti — uno legale e uno tecnico — senza vedere le conclusioni dell’altro. Se emergono lacune, torni indietro e completi il passaggio pertinente. La responsabilità finale resta sempre alla tua organizzazione e al responsabile della protezione dei dati.
L’assistente:
- Invia la valutazione a due revisori IA indipendenti (legale e tecnico) che lavorano senza vedere le conclusioni reciproche
- Produce una decisione complessiva: Approvato / Non approvato / Richiede integrazioni
- Indica quali passaggi devono essere completati in caso di lacune
✏️ Esempio:
La revisione ha evidenziato tre punti aperti prima del go-live:
- Scelta del modello e valutazione del paese terzo non chiarite
- Chiarimento legale necessario se il materiale di lavoro IA costituisce atto pubblico
- Insights va verificato come disattivato sull’assistente
Documento finale
L’assistente compila il modello scelto con tutte le informazioni del processo. Verifica che non ci siano campi vuoti e che il piano d’azione sia stato comunicato ai responsabili. Se il servizio cambia in modo sostanziale — nuovo modello, nuova finalità o dati ampliati — la DPIA va rifatta.
L’assistente:
- Compila il modello scelto con tutte le informazioni raccolte nei passaggi precedenti
- Segna i campi che richiedono completamento manuale
- Genera un piano d’azione con elementi aperti da seguire
✏️ Esempio:
Il trattamento può andare in produzione dopo che:
- ☐ DPA firmato con Intric AB
- ☐ Modello di lettera di consultazione aggiornato con informazioni sull’uso dell’IA
- ☐ Scelta del modello chiarita, inclusa valutazione paese terzo
- ☐ Commenti del responsabile della protezione dei dati ottenuti