Quando l’uomo si trova davanti a un calcolo effettuato da una macchina deve lasciare a quest’ultima anche la capacità di scegliere? La domanda diventa ancora più significativa se si traspone il quesito nel settore finanziario, dove l’utilizzo dei sistemi digitali, degli algoritmi e ora dell’intelligenza artificiale pongono dei temi etici e di uguaglianza. Già negli anni ‘70 il noto informatico tedesco Joseph Weizenbaum provò a dare una risposta affermando che «la scelta è il prodotto del giudizio, non del calcolo».
In tempi molto più recenti e sull’onda di un grave fatto di cronaca ha affrontato questi temi di grande rilevanza Gian Luca Trequattrini, funzionario generale della Banca d’Italia e segretario del Direttorio. Parlando a una tavola rotonda a Firenze alla Biblioteca Spadolini l’autorevole relatore, esperto anche di concorrenza e sistemi digitali, ha tracciato una chiara linea di demarcazione tra ciò che si può lasciare all’AI, ai sistemi di blockchain e alla finanza digitale e ciò che invece deve restare di competenza dell’uomo.
Una linea rossa che diventa ancora più importante se si considera l’allarme bolla Ai lanciato dalla Bce a proposito della stabilità dei mercati, che potrebbero pagare dazio alla concentrazione eccessiva di questi strumenti digitali, e al boom delle tele-truffe.
L’allarme sulle truffe legate all’intelligenza artificiale
In questo senso, se da una parte occorre rafforzare gli strumenti di vigilanza, dall’altra bisogna impegnarsi nella diffusione dell’educazione finanziaria, obiettivo ben chiaro da tempo a Milano Finanza, che con l’Abi e la Feduf inaugura martedì 19 il Salone dello Studente.
Nella sua relazione Trequattrini sottolinea che «a fronte delle opportunità vi sono rischi, sui quali da più parti si richiama l’attenzione, che riguardano la governance degli algoritmi, la responsabilità dei provider tecnologici, la tutela della privacy».
Occorre insomma evitare situazioni di monopolio e verificare i sistemi di controllo. Ma soprattutto occorre preservare l’aumento delle disuguaglianze che diventano ancora più marcate tra i giovani e i soggetti deboli.
Ci si può chiedere, per esempio, se sia etico commercializzare strumenti che consentono a qualunque soggetto, ancorché privo di educazione finanziaria, di operare come trader online aprendo in pochi minuti un account su una delle piattaforme di broker disponibili sul mercato.
Queste piattaforme, secondo Trequattrini, utilizzano spesso come fonti di informazione e di scambio di opinioni i social network e ciò «pone l’esigenza di mitigare il rischio di ancorare le scelte a informazioni non accurate, fenomeno che gli informatici definiscono con il suggestivo termine di allucinazioni».
Il social trading permette di copiare le strategie di investimento di trader esperti, producendo incentivi per ingenti investimenti da parte di operatori ancora poco esperti. In questo senso, secondo il dirigente della nostra banca centrale che di fatto sposa la posizione dell’Eurotower, «la spersonalizzazione della finanza può avere effetti devastanti, anche sul piano umano».
È perciò giusto ed etico evitare che solo i ricchi abbiano accesso al mercato finanziario, «ma è di fondamentale importanza e altrettanto etico che vi sia una generale consapevolezza dei rischi che si corrono quando si fa ricorso a un algido algoritmo».
Poi c’è il problema delle scelte e delle responsabilità che devono essere sempre ricondotte a livello umano. Delegare il processo decisionale alle applicazioni di AI «può portare a una perdita di competenze e abilità personali, oltre a compromettere il controllo sui dati e sulla privacy», senza contare i possibili errori e fallimenti dell’Intelligenza Artificiale.
Carta di credito con fido
Procedura celere
Chi risponde degli errori dell’algoritmo nelle scelte di investimento?
Si potrebbe pensare che, se un errore in un sistema intelligente causa un danno, la responsabilità ricada sulle persone che hanno progettato l’algoritmo. Ma questo non è chiaro, avverte ancora l’istituto di via Nazionale, man mano che aumentano l’autonomia e la capacità decisionale dei sistemi intelligenti perché è difficile spiegare o tracciare la decisione presa dal sistema intelligente. Più l’algoritmo è complesso, più è complicato ricostruire il processo decisionale, e questo rende difficile individuare responsabilità.
Siamo dunque destinati a perdere questo confronto di responsabilità con le macchine? No, ma a un patto: assumersi la responsabilità delle scelte di fronte alla meccanica estrazione ed elaborazione dei dati. Scelgo, dunque sono. (riproduzione riservata)
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link
Informativa sui diritti di autore
La legge sul diritto d’autore art. 70 consente l’utilizzazione libera del materiale laddove ricorrano determinate condizioni: la citazione o riproduzione di brani o parti di opera e la loro comunicazione al pubblico sono liberi qualora siano effettuati per uso di critica, discussione, insegnamento o ricerca scientifica entro i limiti giustificati da tali fini e purché non costituiscano concorrenza all’utilizzazione economica dell’opera citata o riprodotta.
Vuoi richiedere la rimozione dell’articolo?
Clicca qui