AI: L’impatto sulla privacy – Digital4Pro

AI: L’impatto sulla privacy

TPU: L’architettura che sta ridisegnando l’Intelligenza Artificiale
25 Ottobre 2025

Abstract

L’intelligenza artificiale (IA) sta rivoluzionando la raccolta, l’elaborazione e l’utilizzo dei dati personali, generando opportunità innovative e, al contempo, nuove sfide in materia di privacy. La crescente quantità di dati prodotti e la capacità delle aziende di profilare gli individui grazie ai big data sollevano interrogativi rilevanti riguardo alla tutela delle informazioni personali. Il progresso tecnologico ha esteso l’asimmetria informativa oltre la singola transazione, alimentando mercati di dati e incrementando i rischi di abuso, come furto d’identità e discriminazione di prezzo. La letteratura evidenzia tre criticità principali: asimmetria informativa, esternalità negative e problemi di impegno da parte delle imprese nella gestione dei dati. Sebbene il Regolamento Generale sulla Protezione dei Dati (GDPR) offra un quadro normativo innovativo, la rapida evoluzione dell’IA impone una riflessione continua sull’adeguatezza delle regolamentazioni e sul bilanciamento tra innovazione e protezione dei consumatori. È fondamentale promuovere un uso responsabile dei dati, garantendo la sicurezza e la privacy, affinché il progresso tecnologico sia realmente favorevole all’individuo e alla società.

Introduzione

Come emerso nei numerosi articoli sul tema ospitati nel nostro magazine, l’impiego dell’IA permette il censimento, la raccolta e l’elaborazione di dati in quantità e per finalità non confrontabili con il passato.

Quotidianamente noi tutti forniamo un’infinità di informazioni che permettono alle aziende che li raccolgono di profilare gli individui. A tal proposito, si stima che circa il 90% dei dati oggi in circolazione siano stati prodotti soltanto nel corso degli ultimi due anni e che, durante il prossimo decennio, ci sarà un incremento dei mega-dati di circa il 40%.

In questo contesto, l’IA facilita il compito alle imprese in quanto permette a quest’ultime di processare in modo dinamico questeinformazioni e correlarle tra loro così da descrivere dettagliatamente i gusti e gli interessi di ogni individuo. Essendo la natura di questi dati molto personale, l’impiego dell’IA nelle attività delle imprese solleva questioni delicate per quanto concerne la tutela della privacy.

Grazie ai big data, l’IA ha stimolato innovazioni entusiasmanti ma, allo stesso tempo, ridisegnato il concetto di rischio nella privacy dei consumatori e nella sicurezza dei loro dati.

Natura del problema

All’inizio degli anni ’80, gli economisti erano soliti pensare alla privacy dei consumatori come un’asimmetria informativa all’interno di una transazione. Infatti, i consumatori tendono a nascondere la propria disponibilità a pagare proprio come le imprese vogliononascondere il loro reale costo marginale.

L’economia delle informazioni suggerisce che sia gli acquirenti che i venditori hanno un incentivo a nascondere o rivelare informazioni private, e questi incentivi sono cruciali per l’efficienza del mercato.

Nel contesto di una singola transazione, meno privacy non è necessariamente negativa per l’efficienza economica. Infatti, unatecnologia che, grazie ai big data, è in grado di rivelare il tipo di consumatore potrebbe portare ad una migliore corrispondenza traprodotto e tipo di consumatore. Inoltre, aiuterebbe anche gli acquirenti a valutare la qualità del prodotto incoraggiando le imprese a migliorare la qualità della produzione.

Al fine di analizzare al meglio le possibili implicazioni dell’IA sulla privacy degli individui, la ricercatrice Ginger Zhe Jin[1] haelaborato alcune considerazioni che vanno ad arricchire la letteratura già esistente. In particolare, lei fa notare che stannosorgendo nuove preoccupazioni in quanto i progressi tecnologici, che hanno consentito un declino radicale dei costi di raccolta,memorizzazione, elaborazione e utilizzo dei dati in quantità massicce, estendono l’asimmetria informativa ben oltre una singola transazione. Questi progressi sono spesso riassunti dai termini “big data” e “IA”.

Gli algoritmi IA più diffusi prendono i big data come input per comprendere, prevedere e influenzare il comportamento dei consumatori. L’IA moderna, utilizzata dalle aziende, potrebbe migliorare l’efficienza della gestione, motivare le innovazioni e farcorrispondere meglio domanda e offerta. Ma l’IA nelle mani sbagliate faciliterebbe il verificarsi di frodi e inganni.

Poiché i dati possono essere archiviati, scambiati e utilizzati anche molto tempo dopo la transazione, è probabile che l’utilizzo futurodi questi dati aumenti con l’avvento di una tecnologia di elaborazione dei dati come l’IA.

Ancora più importante, l’utilizzo futuro dei dati è ignoto ad entrambi i lati della transazione. Infatti, quando l’acquirente decide difornire i dati personali per una transazione, il venditore potrebbe essere riluttante a limitarne l’utilizzo ad uno scopo particolare o ad un particolare orizzonte temporale. Questo perché anche se non prevede di utilizzare la stessa tecnologia dati, può sempre vendere i datiad altri soggetti. Nascono così dei veri e propri mercati di dati che motivano il venditore a raccogliere tutte le informazioni che i consumatori sono disposti a dare.

Informazioni incomplete sull’uso futuro dei dati non sono l’unico problema in agguato nell’interazione tra IA e privacy dei consumatori. Ci sono almeno altri due problemi relativi all’incertezza sull’uso e sul valore dei dati futuri: uno è l’esternalità e l’altro è l’impegno.

L’utilizzo futuro dei dati può essere vantaggioso o dannoso per i consumatori, pertanto i consumatori razionali potrebbero preferire la condivisione dei dati personali in una certa misura. Tuttavia, i benefici derivanti dall’utilizzo futuro dei dati, ad esempio una miglioreclassificazione dei consumatori, una migliore previsione della domanda o una migliore progettazione del prodotto, sono solitamente ricevuti solo da coloro che raccolgono le informazioni tramite l’utilizzo di dati interni o attraverso la vendita di dati a terze parti.

Al contrario, i danni derivanti da un futuro abuso (furto d’identità, ricatto o frode) spesso sono relativi ai consumatori piuttosto che ai collezionisti di tali dati. Ciò è in parte dovuto al fatto che il consumatore vittima potrebbe aver condiviso le stesse informazioni concentinaia di venditori perdendo il controllo sulla gestione dell’informazione.

Perciò, l’asimmetria tra benefici e danni equivale a esternalità negativa dai venditori agli acquirenti. Se non c’è modo di risalire all’origine, i venditori hanno un incentivo a sovra-raccogliere le informazioni dell’acquirente.

Questa difficoltà nell’associare i danni ad un responsabile, insieme all’incertezza sull’uso futuro e l’asimmetria informativa, innesca anche un problema di impegno. Supponendo che i consumatori si preoccupino dell’uso dei dati, ogni venditore ha l’incentivo a vantarsi di avere la politica dei dati più consumer-friendly, ma tiene conto anche dell’opzione di rimangiarsi la parola una volta raccolti i dati. Infatti, è spesso difficile scoprire come in realtà siano trattati questi dati.

In breve, l’asimmetria informativa, l’esternalità e le preoccupazioni sull’impegno sono i tre nuovi problemi introdotti dall’IA in campo privacy. Più specificamente, aumentando la portata dell’uso dei dati dei consumatori, l’IA potrebbe aumentare i benefici attesi e i costi dei big data. Ma poiché i benefici sono per la maggior parte assorbiti dal proprietario dei dati, l’IA potrebbe incoraggiare un uso scorretto dei dati, nonostante i rischi maggiori per i consumatori. Per lo stesso motivo, i nuovi vantaggi offerti dall’IA potrebbero convincere le aziende ad abbandonare (segretamente) la promessa fatta in materia di privacy o sicurezza dei dati.

Rischio sulla privacy dei consumatori e sulla sicurezza dei dati

Sempre secondo la ricercatrice Ginger Zhe Jin, il rischio associato alla privacy e alla sicurezza dei dati è reale e, se guidato dai dati, può essere direttamente o indirettamente correlato all’IA. Ad esempio, poiché l’IA aumenta il valore atteso dei dati, le aziende sono incoraggiate a raccogliere, archiviare e accumulare dati, indipendentemente dal fatto che utilizzeranno l’IA o no.

Il danno più concreto che potrebbe derivare da una violazione dei dati è il furto di identità. Secondo il Bureau of Justice Statistics (BJS), il furto di identità colpisce 17,6 milioni (7%) di tutti gli abitanti degli Stati Uniti di età superiore ai 16 anni. Naturalmente, nontutti i furti di identità sono guidati da un’inadeguata protezione della privacy o da una scarsa sicurezza dei dati. Infatti, i truffatoripraticavano molto prima che esistessero i big data e l’IA. Tuttavia, il furto d’identità è probabilmente correlato con l’uso scorretto dei dati. Come riportato da BJS, l’86% delle vittime del furto d’identità ha fatto uso fraudolento di informazioni sugli account e il 64% ha riportato una perdita finanziaria a seguito dell’incidente.

È possibile sostenere che l’ondata di violazioni dei dati che sta avvenendo sia determinata principalmente dalla disponibilità dei dati piuttosto che dalla tecnologia di elaborazione impiegata. Tuttavia, secondo la ricercatrice Ginger Zhe Jin, questo potrebbe essere vero al momento, ma le tendenze recenti suggeriscono che i criminali stanno diventando sempre più sofisticati e pronti a sfruttare letecnologie IA di elaborazione dati. Sembra che non passerà molto tempo prima che questi algoritmi IA vengano sfruttati per stalking,ricatti e altri usi oscuri. Infatti, secondo Vines, è possibile spendere fino a 1.000 $ per monitorare la posizione di qualcuno attraverso gli annunci mobile. Ciò è possibile sfruttando gli algoritmi di tracciamento e di targeting degli annunci ampiamente utilizzati nelleapplicazioni mobile. Purtroppo, non è possibile sapere se questo trucco sia stato già implementato nel mondo reale, ma mostra due realtà agghiaccianti. Innanzitutto, i dati personali non sono disponibili solo per le grandi aziende che possono utilizzare l’IA per marketing di massa, ma è anche alla portata di piccole parti che possono sfruttare tali dati per il targeting personalizzato delconsumatore. In secondo luogo, questi attori potrebbero essere in grado di usare l’IA al fine di sfruttare i benefici generati da queste tecnologie per scopi illegittimi.

Questi timori hanno scatenato preoccupazioni anche sulla discriminazione di prezzo. Infatti, come fa notare la ricercatrice Ginger ZheJin, se l’IA consente a un’impresa di prevedere la disponibilità a pagare di un consumatore, quest’informazione potrebbe essere impiegata per assorbire ogni centesimo di surplus del consumatore. Questa argomentazione è teoricamente plausibile, tuttavia è bene che sia valutata tenendo conto di almeno tre punti. In primo luogo, se più di una società è in grado di utilizzare l’IA per individuare ladisponibilità a pagare del consumatore, la concorrenza tra queste potrebbe far diminuire la preoccupazione riguardo una possibile discriminazione di prezzo di primo grado. In secondo luogo, la letteratura ha da tempo dimostrato l’ambiguo effetto sul benessere della discriminazione di prezzo. Finché la discriminazione dei prezzi è imperfetta (vale a dire che le aziende non possono far pagare a ciascun consumatore un prezzo uguale al livello massimo che egli è disposto a pagare), alcuni consumatori potrebbero trarne beneficio della pratica (tramite un prezzo inferiore) e altri potrebbero soffrirne. Terzo, nel lungo periodo, l’IA potrebbe ridurre icosti operativi all’interno dell’azienda e promuovere innovazioni di prodotto che soddisfino meglio la domanda dei consumatori.Questi cambiamenti potrebbero essere vantaggiosi sia per l’azienda che per i suoi consumatori.

Sfide future

A seguito di quanto enunciato finora, la ricercatrice Ginger Zhe Jin pone alcuni interrogativi interessanti: si deve continuare a far evolvere il mercato secondo le leggi attuali o è necessario aggiornare la regolamentazione? In che modo le aziende scelgono le tecnologie per elaborare i dati? Come bilanciare le innovazioni AI-based ai fini di mitigare il rischio in termini di privacy e data protection derivante da queste nuove tecnologie? Queste domande meritano attenzione da parte dei ricercatori di diverse discipline,tra cui economia, informatica, scienze dell’informazione, statistica, marketing e diritto.

La preoccupazione principale è che le imprese non siano pienamente consapevoli del rischio generato per la privacy e la sicurezza deidati. Quindi, per ripristinare la piena responsabilità, è necessario superare diversi ostacoli, tra cui vi è:

  • la difficoltà di osservare come questi dati sono raccolti, archiviati e impiegati;
  • la difficoltà di quantificare le conseguenze sulla privacy e sulla protezione dei dati, specialmente prima che gli eventi avversi si realizzino;
  • la difficoltà di tracciare un nesso causale tra l’impiego dei dati di un’impresa e le sue

Quindi, queste difficoltà esistono, non solo a causa di limiti tecnici, ma anche a causa di incentivi disallineati. Ci potrebbero essere diversi modi per affrontare questo disallineamento degli incentivi, tra cui una nuova legislazione, autoregolamentazione del settore, sentenze del tribunale e tutela dei consumatori. Al riguardo, la disciplina comunitaria ha potuto beneficiare di un’innovazione grazie alla stesura del nuovo Regolamento per la Protezione dei Dati Personali (General Data Protection Regulation o GDPR).Quest’ultimo, pur non contenendo alcun riferimento esplicito all’IA, definisce alcuni principi e regole applicabili ai nuovi sistemi tecnologici usati dalle imprese per il trattamento dei dati personali. Infatti, compare nel Regolamento un principio fondamentale da questo punto di vista, ovvero il principio che tutela il soggetto del trattamento dei dati dalle decisioni automatizzate. Inparticolare, l’articolo 22 del Regolamento per la Protezione dei Dati Personale afferma che l’interessato ha il diritto di non esseresottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. Inoltre, l’impiego dell’IA nel trattamento dei dativa regolato anche sotto il punto di vista della discriminazione. Infatti, è fondamentale che, un sistema basato sull’IA, durante l’analisi dei dati, non fornisca soluzioni basandosi su parametri potenzialmente discriminatori.

In conclusione, è possibile notare che l’IA può portare ad un aumento delle criticità legate al trattamento dei dati personali rendendo necessario adeguare a questo nuovo contesto gli strumenti di tutela esistenti. Apparentemente, nessun approccio è privo di sfide ma,dato l’enorme impatto che l’IA e i big data potrebbero avere sull’economia, è importante costruire l’ambiente di mercato giusto. Questo ambiente dovrebbe rispettare la privacy e la sicurezza dei dati dei consumatori, incoraggiare un uso responsabile dei dati e promuovere innovazioni favorevoli ai consumatori.

Bibliografia

[1] Ginger Zhe Jin è professoressa di economia presso l’Università del Maryland, College Park. Nel 2016-2017, è stata direttrice del Federal Trade Commission Bureau of Economics. Da gennaio 2019 a maggio 2020, è stata Amazon Scholar e Senior Principal Economist presso Amazon.com. Jin è attualmente caporedattrice dell’International Journal of Industrial Organization, membro del consiglio consultivo del Journal of Industrial Economics e membro del consiglio direttivo dell’Industrial Organization Society. È ricercatrice associata dell’NBER dal 2012. La sua ricerca è stata pubblicata su importanti riviste di economia, management e marketing, con il supporto della National Science Foundation, del Net Institute, dell’Alfred P. Sloan Foundation e del Washington Center for Equitable Growth. Molti dei suoi lavori sono stati trattati da importanti organi di stampa, tra cui il Wall Street Journal, il New York Times, Forbes, Bloomberg e il Los Angeles Times. Ha conseguito il dottorato di ricerca in economia presso l’UCLA.

Condividi su:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *