Perché affrontare il pregiudizio nell'apprendimento automatico è la chiave per sbloccare una maggiore inclusione finanziaria

"Inclusione finanziaria significa che gli individui e le imprese hanno accesso a prodotti e servizi finanziari utili e convenienti che soddisfano le loro esigenze - transazioni, pagamenti, risparmi, credito e assicurazioni - consegnati in modo responsabile e sostenibile." - Banca mondiale

In JUMO, la nostra missione è far progredire radicalmente l'inclusione finanziaria colmando il divario tra i servizi finanziari critici e quelli che ne hanno maggiormente bisogno. I nostri clienti sono imprenditori, piccole imprese e commercianti nei mercati emergenti che non hanno una storia finanziaria tradizionale e sono quindi esclusi dall'ecosistema bancario tradizionale.

Ma con miliardi di persone nei mercati emergenti che entrano in rete per la prima volta, la maggior parte tramite telefoni cellulari, ora abbiamo l'opportunità di costruire nuove forme di identità digitali e finanziarie che creano nuove scelte finanziarie.

Fare questo è difficile. Richiede il senso dei dati non strutturati in un modo che semplicemente non è possibile per gli esseri umani fare manualmente. Invece, JUMO utilizza metodi di machine learning (ML) e intelligenza artificiale (AI) che possono modellare in modo più accurato il rischio di un cliente e collegarlo con le scelte finanziarie appropriate. Con questo approccio, possiamo raggiungere milioni di persone precedentemente escluse, ma richiederà molto più lavoro.

L'esclusione finanziaria non è semplice. Le sfumature culturali, di genere e sociali si applicano in tutti i mercati e paesi, aggiungendo un livello di complessità a qualsiasi sforzo globale per ridurre la povertà. Ciò significa che qualsiasi approccio singolare e algoritmico al problema sarà probabilmente soggetto a distorsioni involontarie. Per mitigarlo, è importante includere fattori socioculturali non intuitivi unici per il gruppo di persone di cui accediamo ai dati.

Considera un agricoltore nel settore agricolo poco prima di una siccità anticipata. Su un modello di credito tradizionale, il loro profilo di rischio - e quindi i prezzi dei prestiti - aumenta proprio mentre diminuiscono i finanziamenti e il rendimento delle colture. Se l'agricoltore dovesse accedere a un prestito attraverso il tradizionale modello di rischio di credito, avrebbe un onere di rimborso più pesante, rendendolo più probabile inadempimento, quindi il modello si è dimostrato corretto. Questo è un duro promemoria dell'impatto nel mondo reale del processo decisionale algoritmico.

In parole povere: esiste un modo migliore per gestire questa situazione.

E se prevedessimo con precisione la siccità, abbassassimo il prezzo del prestito e aiutassimo l'agricoltore a superare questo difficile periodo? Ciò aumenterebbe la probabilità che l'agricoltore possa beneficiare di un prestito a un tasso ragionevolmente rimborsabile, il che riduce il rischio di insolvenza.

È essenziale, quindi, che mentre lavoriamo per espandere l'accesso finanziario, continuiamo anche a riflettere sui dati che utilizziamo, sui processi di apprendimento automatico che applichiamo e sull'impatto che ciò ha su questi mercati. Di recente ci siamo concentrati sull'ottimizzazione del nostro approccio alla distorsione nei nostri processi di modellazione e decisione. Attraverso questo lavoro, abbiamo sviluppato un framework che applicheremo continuamente a ciò che facciamo. Questo quadro può essere utile per gli altri che sperano di mitigare la distorsione involontaria in altri modelli.

Misurare l'impatto e l'emarginazione

La sfida dell'esclusione finanziaria è vasta, motivo per cui organizzazioni globali come le Nazioni Unite stanno lavorando a fianco delle aziende per affrontare il problema. Naturalmente, per risolvere un problema devi prima comprenderne l'entità.

Una perfetta inclusione significherebbe estendere le scelte finanziarie al 100% dei clienti "buoni" - in altre parole, i clienti che intendono e hanno la possibilità di rimborsare i propri prestiti. In JUMO ci misuriamo sulla misura in cui questi clienti teoricamente "buoni" possono accedere ai prodotti finanziari dalle banche locali attraverso la nostra piattaforma. Per testare il nostro impatto, ci rivolgiamo a un campione rappresentativo di clienti altrimenti rifiutati, spesso chiamato campionamento del rifiuto, per quantificare una soglia superiore di come sarebbe una perfetta inclusione finanziaria.

L'interrogazione continua dei dati dell'utente ci consente di accedere a un flusso di informazioni imparziali che possiamo utilizzare per ridurre al minimo i pregiudizi storici (derivanti da decisioni storiche) ed evitare le conseguenze non intenzionali dell'esclusione inaccurata delle persone. È importante, tuttavia, che questo processo di misurazione sia regolare e in corso. Garantisce che la nostra attività rimanga allineata con la nostra missione generale ed evita di valutare i clienti sulla base della distorsione involontaria che è entrata nel sistema.

Dati migliori significano previsioni migliori

È importante ricordare che il risultato di qualsiasi modello di apprendimento automatico è buono solo come i dati inclusi. Ad esempio, sappiamo che una percentuale sproporzionata degli utenti della nostra piattaforma è di sesso maschile (70% rispetto al 30% di clienti donne). Ma quando combiniamo i nostri dati con altre ricerche, scopriamo che le donne hanno solo il 10% in meno di probabilità rispetto agli uomini di possedere un telefono cellulare e che il genere gioca un ruolo meno significativo nell'adozione e nell'uso del denaro digitale.

Quindi perché le donne sono state emarginate involontariamente?

Per comprendere questo problema abbiamo dovuto chiederci: quali altre informazioni potremmo usare per integrare i set di dati attuali che ci aiuterebbero a distinguere tra individui in un gruppo apparentemente omogeneo?

In questo caso, era chiaro che in alcuni mercati le donne usano i telefoni cellulari e i portafogli mobili meno frequentemente degli uomini. Ciò dipende in gran parte da fattori socioculturali, tra cui la mancanza di fiducia nel mobile banking o commissioni di transazione proibitive. Prendendo le informazioni da questi dati e applicandole in modo differenziato alle donne, possiamo sviluppare criteri di rischio più appropriati che possono aumentare le pari opportunità.

ML e intuizione per applicazioni nel mondo reale

Nel settore tecnologico spesso vediamo il mondo attraverso i dati: 1 e 0. Ignoriamo l'impatto umano del nostro lavoro. Per compiere progressi reali nell'avanzamento delle metodologie predittive, abbiamo bisogno di algoritmi e intuizione; dobbiamo guardare oltre il breve termine, compensare i falsi positivi e i falsi negativi e costruire prodotti adatti alle persone.

Nessun modello può affrontare decenni di complessità o la ricchezza dei social network umani e le loro sottili differenze sottostanti. Per avanzare, dobbiamo sfidare continuamente il pensiero tradizionale e il nostro modo di pensare.

Nel credito, che è rimasto sostanzialmente invariato per decenni, il modo in cui vediamo e valutiamo il rischio ha un enorme potenziale di progresso. L'apprendimento automatico può e svolgerà un ruolo trasformativo nei nostri sforzi, quindi siamo predisposti a pensare al lato positivo. Allo stesso tempo, riconosciamo i rischi. Questo è il motivo per cui ci concentriamo sull'utilizzo dell'IA per ridurre i pregiudizi nel processo decisionale finanziario, pur sapendo che se applicato in modo inadeguato, potrebbe avere esattamente l'effetto opposto.

Un approccio compassionevole all'inclusione finanziaria?

Adottando questo approccio, riconosciamo la necessità di una serie di criteri in evoluzione che massimizzi la capacità degli individui di esprimere il loro potenziale. In tal modo, potremmo finalmente interrompere il legame diretto tra punteggi di credito e ricchezza utilizzando un approccio non unilaterale alla valutazione del rischio. Ciò significa che un commerciante a Kampala che prende $ 100 di capitale circolante e un commerciante che prende in prestito $ 10.000 a Sacramento sono valutati sulla base dei criteri di valutazione del rischio più appropriati per ogni individuo, aprendo un mondo di scelta finanziaria.

Le conseguenze e il pregiudizio non intenzionali che sorgono a seguito del processo decisionale, che spesso coinvolgono ML, non sono solo il risultato dell'algoritmo o del processo di modellizzazione, ma coinvolgono tutti i punti di contatto accumulati che portano al risultato finale. Per affrontare la distorsione non puoi semplicemente osservare e correggere i sintomi. Devi comprendere il processo end-to-end e dissezionare l'intero sistema per arrivare alla causa principale. Una volta che hai fatto questo, devi continuare a farlo - test, apprendimento e ottimizzazione continui per rimuovere la distorsione dai tuoi modelli.

In definitiva, ciò può essere strumentale all'impiego empatico della tecnologia per espandere e approfondire l'inclusione finanziaria.

Andrew Watkins-Ball è il fondatore e CEO di JUMO, la piattaforma tecnologica più grande e in più rapida crescita per operare mercati di servizi finanziari mobili inclusivi nei mercati emergenti. JUMO collabora con banche lungimiranti e operatori di rete mobile per connettere consumatori e piccole imprese con opportunità finanziarie. JUMO combina dati e tecnologia per fornire prodotti progettati per raggiungere e soddisfare l'80% della popolazione mondiale che non è servita dai servizi finanziari tradizionali.

Numerosi membri del team JUMO hanno contribuito a questo lavoro, tra cui Ricki Davimes, Anthony la Grange, Clarissa Johnston, Ben Gidlow, Natu Lauchande, Niklas von Maltzahn e Paul Whelpton.