Deep Learning as-a-Service e Privacy: i rischi per i dati
Negli ultimi anni si è affermato il modello del Deep Learning as-a-Service (DLaaS), che consente di utilizzare potenti algoritmi di Intelligenza Artificiale (AI) in modo semplice e trasparente attraverso piattaforme cloud (ad esempio, ChatGPT). Questo approccio ha reso l’AI accessibile anche a chi non possiede competenze tecniche avanzate o infrastrutture dedicate, permettendo ad imprese e privati di sfruttare modelli avanzati semplicemente inviando i propri dati ad un provider esterno. Tuttavia, questa comodità comporta un rischio strutturale: affidare i propri dati a terzi significa rinunciare al controllo diretto sulle informazioni, esponendole a possibili abusi o violazioni. I numerosi casi di data breach e scandali legati alla gestione dei dati personali (come Cambridge Analytica) dimostrano quanto il problema sia concreto. L’attuale paradigma pone quindi un dilemma di fondo tra l’efficienza e la scalabilità offerte dal cloud e la tutela della privacy individuale, che rischia di essere compromessa nel momento in cui i dati diventano il principale motore dell’innovazione.
Soluzioni attuali e i loro limiti
Per ridurre i rischi legati alla privacy, negli ultimi anni sono state sviluppate diverse soluzioni che cercano di conciliare sicurezza e funzionalità. Una prima strategia è rappresentata dalle soluzioni on-premise,che evitano completamente l’uso del cloud mantenendo i dati in locale, così da impedirne la fuoriuscita dall’ambiente del proprietario. Questo approccio garantisce un elevato livello di protezione, ma comporta la rinuncia ai vantaggi offerti dai servizi di DLaaScitati in precedenza. In altre parole, non tutte le organizzazioni dispongono delle competenze o delle infrastrutture necessarie per gestire internamente elaborazioni di questo tipo.
Un’altra soluzione molto diffusa è la pseudonimizzazione o anonimizzazione dei dati, ovvero la rimozione delle informazioni che permettono di identificare direttamente un individuo. Tuttavia, numerose ricerche hanno dimostrato che dataset di grandi dimensioni, anche se anonimizzati, possono essere incrociati con fonti secondarie e rivelare comunque l’identità dei soggetti coinvolti. Inoltre, l’anonimizzazione tende a ridurre la qualità informativa dei dati, rendendo i modelli di AI meno accurati e affidabili.
Ciascuno di questi approcci rappresenta un passo avanti, ma nessuno riesce a coniugare pienamente sicurezza, efficienza e usabilità. La crescente esigenza di soluzioni in grado di proteggere i dati lungo tutto il loro ciclo di vita, senza sacrificare le potenzialità del DLaaS, ha spinto la ricerca verso nuove direzioni, aprendo la strada a un paradigma radicalmente diverso: quello dell’AI privacy-preserving.
Protezione dei dati: il ruolo del GDPR e dell’AI Act europeo
Negli ultimi anni l’Unione Europea (UE) ha mostrato una forte attenzione alla tutela della privacy, ponendola al centro del proprio quadro normativo. Il Regolamento Generale sulla Protezione dei Dati(GDPR), in vigore dal 2018, ha rappresentato una svolta epocale: per la prima volta sono stati fissati standard uniformi e vincolanti per tutti i Paesi membri in materia di trattamento, conservazione e sicurezza dei dati personali. Le organizzazioni sono tenute a raccogliere solo le informazioni strettamente necessarie, utilizzarle per scopi legittimi e proteggerle con misure adeguate lungo tutto il loro ciclo di vita. Inoltre, il GDPR ha introdotto il principio privacy-by-design, che impone di integrare la protezione dei dati fin dalla fase di progettazione di qualunque sistema tecnologico, inclusi quelli basati sull’AI.
In continuità con questa visione, nel 2024 è stato approvato l’AI Act, il primo quadro normativo europeo dedicato specificatamente all’intelligenza artificiale. Il regolamento adotta un approccio basato sul rischio, con l’obiettivo di garantire che l’uso dell’AI sia trasparente, sicuro e rispettoso dei diritti fondamentali. Pur non affrontando in modo diretto i sistemi AI privacy-preserving, l’AI Act rafforza l’impegno dell’UE verso soluzioni che coniughino innovazione e protezione dei dati.
In questo contesto normativo si collocano le ricerche e le applicazioni che mirano a garantire la riservatezza delle informazioni non solo durante la raccolta o la conservazione, ma anche nelle fasi di elaborazione. È proprio da questa esigenza che nasce l’approccio dell’AI privacy-preserving, basato su tecnologie come la crittografia omomorfica(Homomorphic Encryption), che consente di mantenere i dati cifrati e al sicuro durante tutto il processo di calcolo.
AI privacy-preserving e crittografia omomorfica: come funziona?
Per rispondere alle crescenti esigenze di sicurezza e riservatezza, la ricerca scientifica ha sviluppato un nuovo approccio che permette di utilizzare modelli avanzati di intelligenza artificiale senza mai esporre i dati in chiaro. L’idea alla base è semplice ma rivoluzionaria: permettere ai modelli di apprendere, analizzare e produrre risultati mantenendo i dati sempre cifrati, anche durante l’elaborazione. Questo è reso possibile da una tecnologia crittografica avanzata nota come crittografia omomorfica.
La crittografia omomorfica consente di eseguire operazioni matematiche direttamente sui dati cifrati, producendo risultati che, una volta decifrati, corrispondono esattamente a quelli che si otterrebbero lavorando sui dati originali. In parole semplici, è come se i dati fossero chiusi in una cassaforte: il sistema può manipolare ciò che contiene, ma senza mai aprirla né vederne il contenuto. Il risultato rimane cifrato e potrà essere decifrato solo dal legittimo proprietario della chiave segreta.
Questo approccio garantisce una protezione completa lungo tutto il ciclo di vita del dato: le informazioni restano cifrate durante l’archiviazione, il trasferimento e persino durante l’elaborazione. In alcune applicazioni, anche il modello di AI può essere cifrato, proteggendo così non solo i dati degli utenti, ma anche la proprietà intellettuale delle aziende che sviluppano gli algoritmi.
Un esempio concreto aiuta a comprendere meglio il funzionamento. Immaginiamo un ospedale che voglia utilizzare un modello di deep learning in cloud per migliorare la diagnosi dei tumori a partire da radiografie. In un contesto tradizionale, le immagini dovrebbero essere inviate in chiaro al provider del servizio, esponendole a potenziali rischi di violazione. Con la crittografia omomorfica, invece, l’ospedale cifra ogni radiografia prima dell’invio: il server riceve solo file illeggibili, ma può comunque eseguire le analisi necessarie (ad esempio identificare aree sospette) senza mai decifrarli. Il risultato dell’elaborazione, anch’esso cifrato, viene poi restituito e potrà essere letto solo dall’ospedale.
Questo approccio elimina la necessità di fidarsi del provider cloud, poiché la riservatezza dei dati non dipende da clausole contrattuali, ma è garantita da proprietà matematiche della tecnologia stessa. Si tratta di un paradigma zero trust, in cui la sicurezza non si basa sulla fiducia, ma sulla crittografia. La combinazione tra deep learning e crittografia omomorfica apre quindi la strada a un AI realmente rispettosa della privacy, capace di sfruttare la potenza del cloud senza compromettere la riservatezza dei dati.
Sfide tecnologiche e ostacoli alla diffusione
Sebbene le tecnologie di AI privacy-preserving e crittografia omomorfica rappresentino una delle innovazioni più promettenti nel campo della sicurezza dei dati, la loro adozione su larga scala è ancora in una fase di crescita. Si tratta infatti di un ambito di ricerca in rapido sviluppo, dove le numerose sfide tecniche vengono progressivamente superate grazie ai continui progressi scientifici e al crescente interesse dell’industria.
Una delle principali difficoltà riguarda la complessità computazionale: operare su dati cifrati richiede più risorse e comporta latenze maggiori rispetto all’elaborazione di dati in chiaro. Tuttavia, i recenti sviluppi hardware e le ottimizzazioni algoritmiche stanno riducendo sensibilmente questi tempi, rendendo possibili applicazioni sempre più efficienti e pratiche. Parallelamente, il miglioramento delle librerie open source e dei framework specializzati sta abbassando la soglia d’ingresso per ricercatori e aziende interessati a sperimentare queste tecnologie.
Un altro aspetto fondamentale riguarda il lavoro di armonizzazione tra tecnologia e normativa.Perché queste soluzioni possano essere adottate su larga scala, è necessario che vengano riconosciute e integrate all’interno dei quadri regolatori esistenti. In questa direzione operano diverse iniziative internazionali, come HomomorphicEncryption.org, un consorzio che riunisce enti di ricerca, università e aziende con l’obiettivo di standardizzarela crittografia omomorfica, definire linee guida comuni e favorire l’interoperabilità delle soluzioni. Insieme al lavoro delle istituzioni europee, questi sforzi stanno contribuendo a una crescente apertura verso le tecnologie privacy-enhancing, riconosciute sempre più come strumenti fondamentali per un’innovazione responsabile.
Nel complesso, si tratta di sfide legate alla maturazione tecnologica, destinate a essere superate nel prossimo futuro. Le prospettive sono estremamente positive: la convergenza tra ricerca accademica, investimenti industriali e attenzione normativa sta preparando il terreno per un’adozione sempre più diffusa di sistemi di intelligenza artificiale realmente sicuri, trasparenti e rispettosi della privacy.
Dhiria: una startup italiana all’avanguardia nell’AI privacy-preserving
Dhiria, tra le prime realtà a livello globale e prima startup italiana impegnata nello sviluppo dell’AI privacy-preserving, ricopre un ruolo di rilievo nel settore. Spin-offdelPolitecnico di Milano,nato con l’obiettivo di trasferire al mercato i risultati della ricerca nel campo dell’intelligenza artificiale sicura e della crittografia avanzata, Dhiria è riconosciuta per la qualità scientifica delle proprie ricerche, pubblicate nelle principali conferenze e journal internazionali, e per il contributo alla diffusione di tecnologie privacy-preserving.
La sua partecipazione attiva allo sviluppo di questo settore mostra come sia possibile coniugare i vantaggi offerti dal cloud con un livello di protezione dei dati senza precedenti, reso possibile dalla crittografia omomorfica e dalle più recenti innovazioni nel campo dell’AI. Più che una visione futura, tutto questo rappresenta una concreta anticipazione del prossimo paradigma tecnologico: sistemi di intelligenza artificiale progettati intrinsecamente per tutelare la privacy di dati e utenti.





