L’impiego dei nostri dati in settori di forte impatto sociale e in ambienti fortemente redditizi genera lecite preoccupazioni. La tempesta mediatica, oltreché giudiziaria, che ha coinvolto la società “Cambridge Analytica” è uno degli esempi lampanti di come un’enorme quantità di informazioni personali sia stata raccolta all’oscuro di circa 50 milioni di cittadini americani. Un semplice test sulla personalità creato da un professore dell’Università di Cambridge e disponibile sull’App di Facebook, che aveva riscontrato un enorme successo, diventando in breve tempo popolare. Sappiamo come è andata.
La vicenda di Cambridge Analytica dimostra in primo luogo il fallimento delle nostre istituzioni più antiche, come la democrazia, maggiormente esposte al pericolo di eversivi processi di ingegnerizzazioni delle masse elettorali attraverso l’utilizzo di tecniche di analisi dei Big data e soluzioni di AI/ML (Machine Learning); in secondo luogo, tuttavia, si avvalorano le considerazioni su un ulteriore fallimento dei governi, legato questa volta alla protezione dei nostri dati personali. La privacy dei cittadini non può essere posta sulla cima di deboli promesse annientate da attività illecite e accordi redditizi.
Le opportunità di business basate sull’utilizzo di AI e ML si espandono, diventando sempre più pervasive al punto da spingere gli Stati e le organizzazioni a disciplinare nuovi aspetti e nuove sfumature di un settore con un forte impatto sociale.
Il rapporto fra intelligenza artificiale e privacy
Il Regolamento Europeo sulla protezione dei dati (GDPR), entrato in vigore da maggio 2018, è l’ultimo sforzo dell’UE, dopo un processo lungo che trova le sue origini nella direttiva 95/46/CE, al fine di regolare uniformemente in tutti gli Stati membri le politiche di trattamento dei dati secondo i principi di liceità, correttezza e proporzionalità nel rispetto della dignità umana e delle libertà fondamentali. Il GDPR, dunque, spinge l’asticella della tutela della privacy a livelli altissimi per qualsiasi realtà che elabori o esternalizzi l’elaborazione dati di cittadini dell’UE. Esistono requisiti rigorosi che disciplinano il consenso, la protezione dei dati fin dalla progettazione (“privacy by design”) e come impostazione predefinita (“privacy by default”), la diffusione/comunicazione di dati, il trasferimento di dati in territori extra-Ue e molto altro, con severe sanzioni in caso di data breach. La sfida per l’intelligenza artificiale e la privacy è spostata molto in alto.