L'EBA detta le regole: l'Intelligenza Artificiale dovrà essere spiegabile

Approfondimenti 21 Dicembre 2020

2020: l'Intelligenza Artificiale è adottata dal 64% delle banche europee

È quanto emerge dall’annuale Risk Assessment Report, da poco rilasciato dall’EBA. Negli ultimi due anni le banche europee hanno continuato a investire nell'intelligenza artificiale (AI) e nell'analisi dei grandi dati e, in particolare, il 12% è passato dalla fase sperimentale all'implementazione ufficiale di strumenti di AI nei propri processi.

Certo, la notizia non sorprende.

Come previsto, la pandemia ha accelerato i piani di trasformazione digitale dell'UE, già resa urgente dalla costante crescita di nuovi operatori e, più di recente, dall’ingresso sul mercato dei colossi GAFA (Google, Facebook, Apple e Amazon). Nel 2020, il 60% delle banche ha apportato modifiche al bilancio per l'adozione di nuove tecnologie finanziarie, e le partnership con le società Fintech si confermano la via principale per il rapido sviluppo di soluzioni avanzate realizzate ad hoc.

Al crescere della domanda cresce tuttavia anche la necessità di un quadro normativo europeo per l’adozione dell’Intelligenza Artificiale in campo finanziario. La sua definizione è prevista per il 2021, ma già da un paio d’anni la Commissione Europea ne ha anticipato alcune direttrici nel documento “Ethics guidelines for trustworthy AI”. E già il titolo la dice lunga sulle tematiche attorno alle quali verterà il futuro ordinamento.

Verso un'AI affidabile

Come indicato nelle linee guida europee, lo sviluppo, l'implementazione e l'uso di qualsiasi soluzione di AI dovrebbe rispettare alcuni principi fondamentali, come il rispetto dell’autonomia umana e la prevenzione dei danni. Ma soprattutto, i sistemi di Intelligenza Artificiale dovrebbero essere explainable, spiegabili; un termine che rimanda al concetto di explainable AI.

La definizione è intuitiva: un modello di Intelligenza Artificiale è spiegabile quando è possibile generare spiegazioni che permettono agli esseri umani di comprendere come viene raggiunto un determinato risultato. Ma perché si è sentito il bisogno di specificare un concetto tutto sommato banale?

Perché il comportamento di un modello di AI è spesso tutto fuorché trasparente.

Anzi, i sistemi di AI diventano frequentemente delle black-box, sistemi opachi per i quali il comportamento interno non è comprensibile e per cui non è possibile capire e verificare come l’algoritmo abbia raggiunto un certo risultato. Questa caratteristica è tipica ad esempio dei sistemi di Machine Learning; attraverso l'autoapprendimento, il modello si evolve autonomamente sfuggendo al controllo del programmatore, ostacolandone le possibilità di intervento quando si verifica un errore e rendendo difficile verificare l’attendibilità dei risultati. La comprensione del comportamento dei modelli di AI è quindi fondamentale quando tali modelli sono implementati in quei campi che possono avere un profondo effetto sulla vita delle persone, come in campo medico, il settore finanziario, o anche quello dell’automotive.

La spiegabilità di una soluzione AI può variare a seconda della complessità del sistema e della modalità di apprendimento utilizzate. Nel migliore dei casi, il modello è spiegabile in quanto il comportamento interno può essere direttamente compreso da un umano. È questo ad esempio il caso sia di MORE che del modello previsionale ForST, entrambi progettati sin dall’inizio per fornire spiegazioni affidabili e di facile comprensione della previsione che producono.

Esistono tuttavia diverse tecniche per tradurre in spiegazione anche il comportamento di una black-box. Con le tecniche di post-hoc interpretability, viene fornita un'interpretazione a posteriori interrogando selettivamente il modello per rivelare alcune delle sue proprietà. Molti approcci si basano sulla creazione di surrogati, ovvero modelli semplificati addestrati per riprodurre con la massima approssimazione possibile i risultati della black-box da cui dedurre il comportamento generale del modello sottostante (global surrogate model) o in grado di fornire spiegazioni locali di una singola previsione (LIME, Local Interpretable Model-Agnostic Explanations).

Oggi la teoria per la quale le black box siano in grado di raggiungere un grado di accuratezza più elevato per la maggior complessità architettonica dei sistemi, incontra sempre meno sostenitori. La trasparenza dei risultati si sposa con il livello di accuratezza raggiunto dai modelli più semplici. Ed è proprio sulla trasparenza delle tecnologie che si giocherà la partita tra gli operatori finanziari.

Sull’explainable AI si giocherà la partita sulla fiducia dei consumatori

La necessità di spiegabilità è maggiore ogni volta che le decisioni hanno un impatto diretto sugli esseri umani e, nei prossimi anni, questo aspetto avrà un ruolo fondamentale nella competizione tra nuove realtà e operatori storici.

L’enorme disponibilità di dati a disposizione dei GAFA rende infatti particolarmente difficile per gli operatori tradizionali colmare il divario tecnologico. Per conquistare la fiducia dei consumatori, gli operatori storici invece potranno puntare sulla trasparenza delle metodologie adottate, soprattutto in un settore che soffre di una mancanza di cultura finanziaria diffusa.

Ma l’adozione di sistemi di Intelligenza Artificiale spiegabili rappresenta un vantaggio anche all’interno degli istituti finanziari, dove gli esseri umani sono chiamati a prendere decisioni sulla base dei risultati prodotti dai modelli. Gli operatori devono disporre dei mezzi sufficienti per capire perché è stato generato un particolare risultato e per convalidare i risultati prodotti. La trasparenza non si esaurisce quindi con la spiegabilità dei modelli, ma consiste nel rendere disponibili dati, caratteristiche, algoritmi e strumenti di comprensione, e costituisce la base per la costruzione di un sistema finanziario normato e affidabile.