Sul rapporto tra finanza, tecnologia ed etica

La finanza, nell’immaginario collettivo, non gode certo di buona reputazione. Qualcuno ricorderà la cinica e avida figura di Gordon Gekko nel film Wall Street. È un po’ questa l’immagine che è stata trasferita alla pubblica opinione. Certo, anche avvenimenti come quelli del 2008 originati dalla crisi dei mutui americani che poi hanno investito tutti i Paesi, non hanno contribuito a far percepire la finanza come una pratica particolarmente virtuosa

Naturalmente, se andiamo oltre all’interpretazione emozionale, è evidente che la finanza è una componete essenziale dei moderni sistemi economici. La sua percezione, tuttavia, è costantemente sottoposta a un dibattito pubblico che coinvolge temi, giuridici ed economici e, appunto etici.

Non è un caso se anche un premio Nobel per l’economia come l’indiano Amartya K. Sen, che certamente ha ben presente la funzione della finanza, si sia interrogato sul rapporto complicato tra quest’ultima e l’etica raccogliendo le proprie riflessioni nel testo “Denaro e Valore: Etica ed Economia della Finanza“.

A rendere il quadro ancora più complesso, è sopraggiunta una velocità nell’innovazione tecnologica, applicata anche al campo finanziario, sconosciuta nei decenni precedenti.

Solo per citare i due esempi più noti, l’affermazione dell’Intelligenza Artificiale (IA) e l’utilizzo della blockchain, è chiaro che la disintermediazione sottesa a queste tecnologie, rende il tema della loro applicazione ai processi finanziari ancora più delicato in fatto di etica e responsabilità.

Se infatti, alcune innovazioni possono potenzialmente aumentare l’accessibilità agli strumenti finanziari, è evidente che introducano contemporaneamente rischi significativi, oltre che in termini di tutela della privacy, in fatto di governance degli algoritmi e di perdita di centralità delle competenze umane.

In tema di governance, passando da una gestione finanziaria tradizionale – che prevede intermediari, garanti e step autorizzativi – a un modello decentralizzato, basato su tecnologie a registro distribuito (blockchain) in cui la catena rappresenta la “struttura” fisica mediante la quale le transazioni sono regolate, senza la necessità di intermediari o garanti, si determinano due conseguenze principali. La prima riguarda il concetto di “fiducia” che, alla base dell’innesco dei processi finanziari, viene delegata totalmente agli algoritmi. La seconda coinvolge il tema della responsabilità e dell’allocazione dei rischi che, nel caso della finanza decentralizzata, è in capo ai singoli partecipanti della rete e non a intermediari autorizzati, come invece nel caso del modello finanziario tradizionale.

In caso di errore, sarà sempre più complesso attribuire la responsabilità alle persone o società che hanno progettato l’algoritmo. Infatti, con la crescita dell’autonomia e della capacità di apprendono dei sistemi intelligenti renderanno complicato spiegare o tracciare le ragioni della decisione presa da un modello finanziario non presidiato.

Si apre, dunque, uno scenario in cui le autorità di regolamentazione saranno sempre più chiamate a fornire gli strumenti normativi per garantire governance, trasparenza e accountability dei sistemi finanziari “non presidiati”.

Un ulteriore capitolo di rilievo riguardo poi il ruolo del lavoro umano. Considerando che l’Intelligenza Artificiale avrà un ruolo sempre più determinante nell’evoluzione dei prodotti e servizi finanziari, è plausibile pensare che si determinerà in misura crescente un impatto potenzialmente disruptive sul mondo del lavoro. Secondo le previsioni contenute nel “The Future of Jobs Report 2023”, pubblicato dal World Economic Forum, con la diffusione dei sistemi di IA nei prossimi cinque anni verranno creati 69 milioni di nuovi posti di lavoro ma, al contempo, se ne perderanno 83 milioni.

Finanza, tecnologia ed etica sono destinate a un confronto che le occuperà ancora per lungo tempo prima che venga trovato un equilibrio, almeno parziale, in grado di tutelare simultaneamente il libero accesso ai servizi finanziari, la certezza delle responsabilità e la protezione della privacy.

In conclusione, possiamo auspicare che, anche se gli algoritmi alla base delle tecnologie intelligenti ci consentiranno di estrarre le migliori informazioni possibili, sarà sempre il fattore umano a doversi prendere la responsabilità delle scelte perché, come ha sostenuto l’informatico tedesco Joseph Weizenbaum nel lontano 1976, “choosing is the product of judgment, not calculation”.