Il settore assicurativo è da anni oggetto di attenzione a causa del cosiddetto “fair bias”. In effetti, i dati di scarsa qualità nelle pratiche commerciali e i pregiudizi sono un problema ben noto per le compagnie assicurative. Purtroppo, il risultato è l’emarginazione di un segmento della popolazione.

Alcuni esperti del settore, tra cui un ex commissario assicurativo statunitense, ritengono che la discriminazione diventerà il problema principale nella regolamentazione dell’AI. Questo perché i dati raccolti sui clienti possono rivelare con facilità troppe informazioni negative, dando modo alle compagnie assicurative di scegliere soltanto i rischi più convenienti.

Quali sono i dati di scarsa qualità per le compagnie assicurative?

Nella costruzione di modelli, i dati di training contano e non poco. Consideriamo, ad esempio, indice di massa corporea (IMC) nelle assicurazioni sulla vita. La mancanza di dati assicurativi alternativi, rappresentativi e di qualità, ha fatto sì che l’IMC fosse considerato come il parametro ideale per la valutazione del “rischio malattia” per 80 anni, cioè fino a quando l’American Medical Association non l’ha classificato come fuorviante.

In questo esempio, i dati relativi all’IMC si basavano su una serie di misurazioni dell’altezza e del peso prese prevalentemente su uomini caucasici. Recenti ricerche hanno dimostrato che l’IMC non tiene conto di fattori quali la densità ossea e la massa muscolare, per cui è una misurazione che in molti casi porta a valutare il rischio in modo impreciso.

Come dimostrato dall’esempio in questione, la mancanza di dati può creare il bias della “disponibilità euristica” (cioè una dipendenza eccessiva dai dati di facile accesso) e condurre a risultati negativi. E poiché i dati sono il carburante dell’intelligenza artificiale, ne consegue che l’immissione di dati di scarsa qualità nei sistemi alimentati dall’AI condurrà a risultati scadenti.

 


Cosa sono gli algoritmi e perché sono importanti?

Un algoritmo di AI è un elenco di istruzioni passo-per-passo progettate per svolgere un compito particolare o risolvere un problema specifico. La generazione, o creazione, di dati sintetici impiega algoritmi di AI, come ad esempio gli algoritmi di machine learning e le reti neurali.


Bias: una parola di 4 lettere

Storicamente, le compagnie assicurative utilizzano i codici di avviamento postale o i codici territoriali per calcolare i premi assicurativi. Tuttavia, variabili apparentemente innocue come queste possono essere proxy di dati sensibili, come la razza, il sesso o la religione. Tali variabili possono, a loro volta, nascondere bias.

Prendiamo un'inchiesta svolta da Propublica nel 2017 a Chicago. L’inchiesta si concentrava sulle differenze nei premi delle assicurazioni auto, per la cui determinazione venivano utilizzati i codici di avviamento postale come dati principali. Una ricerca successiva dimostrò che chi viveva in aree con un’alta concentrazione di minoranze pagava premi più elevati, a parità di fattori come l’età, la copertura assicurativa, il sesso e la storia dei sinistri.

Nell’esempio più eclatante, al variare del codice di avviamento postale, la differenza nei premi assicurativi superava il 300% nelle aree con più del 50% della popolazione appartenente a minoranze. E tutte le 34 compagnie esaminate applicavano premi più elevati.

Se non si individuano e non si attenuano simili pregiudizi, le popolazioni vulnerabili verranno ulteriormente emarginate. E l’intelligenza artificiale non farà che esacerbare le disuguaglianze.

AI e affidabilità: proseguono gli sforzi a livello governativo per promuovere l’alfabetizzazione nell’uso dell’intelligenza artificiale, incoraggiare l’inclusività nell’apporto dei contributi e mostrare chiaramente il livello di affidabilità dell’AI.

Dove entra in gioco la generative AI

La maggior parte dei business case in cui viene utilizzata la generative AI (GenAI) prevede il ricorso a modelli linguistici di grandi dimensioni (LLM). Tuttavia, anche un altro tipo di GenAI — i dati sintetici — si rivela particolarmente utile nella risoluzione dei problemi relativi ai dati, quali la privacy e l’equità. I dati sintetici, infatti, offrono ai modellatori il vantaggio di garantire la protezione delle informazioni personali sensibili, senza ricorrere al mascheramento dei dati. Ecco cosa ne pensano alcune organizzazioni:

Troppo bello per essere vero? Niente affatto.

Un esempio concreto dei risultati ottenuti con i dati sintetici

Nel 2022, SAS, in collaborazione con Syntho e la Dutch AI Coalition, ha dimostrato che i dati sintetici producono risultati più affidabili rispetto ai dati anonimizzati, mantenendo al tempo stesso i modelli statistici complessi, necessari per le analisi più avanzate.

Questi progressi, unitamente alle crescenti preoccupazioni per la protezione della privacy, sono il motivo per cui IDC FutureScape prevede che entro il 2027, il 40% degli algoritmi di AI utilizzati dagli assicuratori utilizzerà i dati sintetici lungo tutta la catena di creazione del valore per gli assicurati, in modo da garantire l’equità dei processi interni e la conformità alle normative.

Dati sintetici per il settore assicurativo: Santo Graal o solo “olio di serpente”?

Di per sé, i dati sintetici non risolvono tutti i problemi. Basti pensare che per creare i dati sintetici sono necessari i dati originali. E i pregiudizi perpetuati nei dati originali possono ancora prevalere.

Qualsiasi dibattito sull’utilizzo sicuro all’AI, compresa la GenAI, deve riconoscere alcune verità:

  • I bias creano disuguaglianze.
  • Tutti modelli contengono bias.
  • I bias possono essere attenuati, ma non eliminati.

Per imporsi come leader in questo ambito, le organizzazioni devono darsi dei principi a garanzia dell’affidabilità dell’AI, oltre a:

  • Promuovere l’alfabetizzazione nell'uso dei dati e il processo decisionale basato sui dati.
  • Consentire ai dipendenti di segnalare rischi indesiderati derivanti all’AI.
  • Abbracciare un codice sull’etica dei dati come parte integrante dell’azienda.

Recentemente, SAS ha gestito un progetto sui dati sintetici con una grande compagnia assicurativa che ha testato i dati sintetici e il credit scoring. I risultati dell’esperimento sono stati incoraggianti. La discussione che ne è seguita ha anche rivelato alcune spiacevoli verità sull’uso del credito e su altri fattori che influenzano il rating dei premi. Ad esempio:

      • Numerosi studi hanno confermato che appartenenti a minoranze e donne pagano di più per l’assicurazione auto.
      • La storia di una persona alla guida può essere influenzata dai pregiudizi della polizia.
      • Il monitoraggio del comportamento al volante tramite dispositivi smart può essere falsato dalle condizioni stradali che variano da un quartiere all’altro.

Leggi un'analisi dettagliata della Commissione per i servizi finanziari della Camera dei Rappresentanti sulle pratiche assicurative nel settore auto.


Qual è il futuro dei dati sintetici nel settore assicurativo?

Sono molteplici i modi in cui le compagnie assicurative possono sfruttare la GenAI.

I modelli di generative IA possono assistere gli assicuratori nella creazione di scenari, nell’individuazione proattiva dei rischi e nella previsione degli esiti. La generative AI può supportare altresì le decisioni in materia di prezzi e di coperture assicurative. Permette inoltre di automatizzare l’elaborazione dei sinistri, contribuendo a ridurre i costi e a migliorare l'esperienza (e la soddisfazione) dei clienti. Infine, può essere utilizzata per facilitare la rilevazione delle frodi e fornire ai clienti raccomandazioni mirate per la prevenzione dei rischi e la conseguente riduzione della probabilità di sinistri.

I dati sintetici sono la chiave per interrompere la catena di pregiudizi che si perpetuano nel settore assicurativo.

Piuttosto che soffermarsi sugli aspetti potenzialmente negativi dell’AI, le compagnie assicurative nel loro complesso dovrebbero porsi le domande giuste e prestare una maggiore attenzione alla qualità dei dati utilizzati per generare i dati sintetici. In tal modo, sarà possibile proteggere la privacy e ridurre in modo significativo i bias, liberando al contempo l’enorme potenziale della generative AI.

Scopri un’anteprima esclusiva di SAS Data Maker, un'interfaccia low-code/no-code per aumentare o generare rapidamente i dati.
Share

About Author

Franklin Manchester

Prior to joining SAS, Franklin held a variety of individual contributor and people leader roles in Property and Casualty Insurance. He began his career as an Associate Agent for Allstate in Boone, NC. In 2005, he joined Nationwide Insurance as a personal lines underwriter. For 17 years at Nationwide, he managed personal lines and commercial lines underwriters, portfolio analysts, sales support teams and sales managers. Additionally, he supported staff operations providing thought leadership, strategy and content for sales executive offices.

Leave A Reply

Back to Top