Intelligenza artificiale e privacy: alla ricerca di un equilibrio

intelligenza artificiale privacy

Condividi questo post

L’intelligenza artificiale è polarizzante nell’opinione pubblica, soprattutto quando si parla di privacy: si pensa o a Terminator o al lavoro completamente automatizzato, togliendo agli esseri umani qualunque stimolo. In realtà, sono due scenari irreali, e al momento usiamo i dati e le potenzialità dell’AI per migliorare i processi quotidiani.

Dobbiamo però gestire queste potenzialità con delle regole.

Non tutti hanno a disposizione gli stessi dati, e dobbiamo riportare un equilibrio. Parlare di dati e AI è difficile senza guardare il panorama complessivo che ci circonda. La competizione e l’antitrust sono un tema caldissimo negli ultimi anni. La tecnologia si è mossa velocemente, e sono stati messi pochi paletti.

A livello globale ci sono tantissimi elementi unificatori, ad esempio una grande competizione.

L’ecosistema digitale è stato lasciato libero, negli ultimi vent’anni, senza particolari tutele. In particolare per quanto riguarda l’intelligenza artificiale, si tratta di un tema legatissimo alla privacy e all’accessibilità dei dati.

Dobbiamo ripensare alla fruibilità dei dati per il bene comune e a concetti come la data generosity, per recuperare il valore della privacy come valore collettivo. 

Un altro tema è il modo in cui dati vengono gestiti e di come vengono alimentati gli algoritmi.

Se vogliamo innovare, però, dobbiamo partire da una mutua fiducia, in cui la verifica sia possibile e la trasparenza garantita. La raccolta e la classificazione dei dati non sono mai dei fattori neutri.

In questi ultimi anni si è messa in discussione l’idea che l’intelligenza artificiale fosse la soluzione per tutti i problemi. In realtà replica semplicemente la società.

L’approccio è cambiato quando ci siamo resi conto della non neutralità dei dati. L’intelligenza artificiale è difficile da regolamentare, ma esiste la legge sulla privacy. Ci sono numerosi ambiti complessi, dal punto di vista decisionale, che rendono poco affidabili le valutazioni delle macchine a causa dei bias delle persone che li programmano. Non sono solo i dati a dover essere controllati, ma anche i parametri per selezionarli.

Ci sono molte soluzioni per neutralizzare gli algoritmi discriminatori, per fare in modo che la responsabilità non sia solo degli individui: ci va un sistema di controllo prima della messa in commercio dei software, come sta facendo l’Unione Europea.

La nostra ospite: Ivana Bartoletti

Ivana Bartoletti è Global Chief Privacy Officer di Wipro,  Women Leading in AI Network e AI expert.

I LiveTalk di Ghostwriter AI

I nostri LiveTalk sono un incontro settimanale in cui parliamo con un/a professionista di come sia possibile osare per innovare nei diversi ambiti del business, e di come l’Intelligenza Artificiale AI può aiutare i processi.

Altro da leggere