Trustworthy AI: questione di fiducia

trustworthy AI

Condividi questo post

La trustworthy AI è una tematica molto sentita, oggi oggetto di valutazioni internazionali. Tutto è iniziato molto probabilmente quando negli USA è esploso il “Caso Compas”.  Compas è il nome di un algoritmo di valutazione del rischio utilizzato negli Stati Uniti per valutare, appunto, il rischio di recidiva in alcuni reati. Utilizzandolo si è notato un bias dell’intelligenza artificiale verso le persone nere durante una serie di procedimenti giudiziari. Da lì è nata la domanda: quanto possiamo fidarci di questi sistemi?

L’AI è usata nel recruiting, nell’HR e nei sistemi universitari, e i bias dei sistemi possono essere determinanti in negativo per moltissime persone.

Spesso si pensa che gli algoritmi dell’intelligenza artificiale siano infallibili, ma non è così. Imparano dai dati, che se contengono bias e pregiudizi, saranno amplificati nel risultato e nelle decisioni del sistema.

Il sistema, infatti, non decide da solo, ma impara dai pattern di comportamento e dai dati con cui la alimentiamo. Le macchine non danno risposte, ma output. Non fanno valutazioni, e possono cambiare a seconda degli input. I sistemi sono sempre in evoluzione.

La fiducia nel software dipende dalla fiducia che abbiamo in quel software, grazie alle esperienze positive o negative vissute in passato. Una relazione molto simile a quella che abbiamo con le persone! La trustworthy AI è importante dal punto di vista etico e di business, perché le aziende devono essere attente a questo aspetto per far sì che le persone si fidino e si affidino a loro.

A volte cerchiamo nuovi dati e facciamo domande sugli output che riceviamo. Non sempre però si può risalire alle motivazioni che hanno portato gli algoritmi a un certo risultato, ma è fondamentale poterlo fare nelle situazioni definibili “life-changing”, quelle situazioni che potrebbero cambiare il corso della nostra vita.

Anche la comunità europea sta adottando delle valutazioni sul rischio etico degli algoritmi, in un’ottica appunto di trustworthy AI.

La nostra ospite: Azzurra Ragone

Azzurra Ragone  si occupa di Innovation e Transformation lead in EY. 

I LiveTalk di Ghostwriter AI

I nostri LiveTalk sono un incontro settimanale in cui parliamo con un/a professionista di come sia possibile osare per innovare nei diversi ambiti del business, e di come l’Intelligenza Artificiale AI può aiutare i processi.

Altro da leggere