Forsikringsbranchen er blevet undersøgt i årevis på grund af "fair bias"-praksis. Faktisk er ukorrekte data i forretningspraksis og bias velkendt i forsikringsbranchen. Resultatet er desværre marginaliserede befolkningsgrupper.

Nogle brancheeksperter - herunder en tidligere forsikringsdirektør i USA - mener, at diskrimination vil blive det største problem inden for AI-regulering. Det skyldes, at kundedata nemt kan afsløre for mange negative data, så forsikringsselskaberne kun kan vælge de mest ønskværdige risici.

Hvilke data udgør ukorrekte data for forsikringsvirksomhederne?

Når man bygger modeller, betyder træningsdata noget - endda meget. Overvej eksemplet med body mass index (BMI) i livsforsikring. Dette eksempel viser, hvordan mangel på forskelligartede, repræsentative forsikringsdata af høj kvalitet førte til 80 år med en "ideel risiko", som American Medical Association til sidst kritiserede for at være iboende partisk.

I dette tilfælde var BMI-dataene baseret på et datasæt med højde og vægt for overvejende hvide mænd. Nyere forskning viser, at BMI ikke tager højde for ting som knogletæthed og muskelmasse, så det er et upræcist mål for risikovurdering for mange mennesker.

Som BMI-eksemplet viser, kan mangel på data skabe tilgængelighedsbias (en overdreven afhængighed af data, der er nemme at få adgang til) – hvilket fører til dårlige resultater. Og fordi data er brændstoffet til kunstig intelligens, betyder det, at hvis man fodrer AI-systemer med forkerte data, vil det føre til dårlige resultater.

 


Hvad er algoritmer, og hvorfor er de vigtige?

En AI-algoritme er en liste med trinvise instruktioner, der er designet til at udføre en bestemt opgave eller løse et bestemt problem. Syntetisk datagenerering (skabelse af syntetiske data) anvender AI-algoritmer, f.eks. maskinlæringsalgoritmer og neurale netværk.


Bias: Et ord på 4 bogstaver

Historisk set har forsikringsselskaber brugt postnumre eller områdekoder til at beregne forsikringspræmier. Men tilsyneladende uskyldige variabler som disse kan være stedfortrædere for følsomme data - såsom race, køn eller religion. Sådanne variabler kan til gengæld skjule bias.

Tænk på en Propublica-historie fra 2017 i Chicago. Historien fokuserede på forskelle i bilforsikringspræmier, hvor postnumre blev brugt som et primært datapunkt for fastsættelse af satser. Senere forskning viste, at de, der boede i postnummerområder med minoriteter, betalte højere præmier - når man holdt faktorer som alder, dækning, køn og skadeshistorik konstante.

I det mest grelle eksempel var forskellen i præmie, når man skiftede postnummer, mere end 300 % højere i kvarterer, der bestod af mere end 50 % minoriteter. Og den var højere i hvert eneste af de 34 selskaber, der blev citeret.

Hvis fordomme som denne ikke vurderes og afhjælpes, vil sårbare befolkningsgrupper blive yderligere marginaliseret. AI vil kun forværre ulighederne.

AI og troværdighed: Bestræbelserne på at fremme AI-færdigheder, inkluderende bidrag og påviselig troværdighed er nået op på de højeste regeringsniveauer.

Hvor generativ AI kommer i spil

De fleste forretningssager med generativ AI (GenAI) indeholder store sprogmodeller (LLM). Men en anden type GenAI - syntetiske data - er især nyttig til at håndtere dataproblemer som privatlivets fred og rimelighed. Syntetiske data giver modeludviklere den fordel, at de ikke er afhængige af datamaskering for at beskytte følsomme persondata. Prøv at høre, hvad disse organisationer siger:

For godt til at være sandt? Nej, slet ikke.

Et eksempel fra den virkelige verden på resultater af syntetiske data

I 2022 demonstrerede , at syntetiske data gav mere pålidelige resultater end anonymiserede data SAS i samarbejde med Syntho og Dutch AI Coalition, samtidig med at de dybe statistiske mønstre, der kræves til mere avancerede analyser, blev bevaret.

Sådanne fremskridt kombineret med voksende bekymringer om beskyttelse af privatlivets fred er grunden til, at IDC forudseri 2027, at 40 % af de AI-algoritmer, forsikringsselskaberne bruger i hele forsikringstagerens værdikæde, vil anvende syntetiske data for at garantere retfærdighed i systemet og overholde reglerne.

Syntetiske data til forsikring: hellig gral eller AI-luftkasteller?

Syntetiske data vil ikke i sig selv hele alle sår. Husk, at du stadig har brug for de oprindelige data for at skabe de syntetiske data. Derfor kan der stadig være bias i de oprindelige data.

Enhver dialog om en sikker anvendelse af AI, herunder GenAI, må forholde sig til flere sandheder:

  • Bias skaber uligheder.
  • Alle modeller indeholder bias.
  • Bias kan mindskes, men ikke elimineres.

For at positionere sig som ledere på dette område skal organisationer udvikle deres egne pålidelige AI-principper. Det bør de også:

  • Fremme en kultur med datakompetence og brug af datadrevne beslutninger.
  • Giv medarbejderne mulighed for at påpege utilsigtede AI-risici.
  • Omfavne et kodeks for dataetik som en integreret del af deres virksomhed.

For nylig var SAS vært for et forsikringsprojekt med syntetiske data, hvor et stort forsikringsselskab eksperimenterede med syntetiske data og kreditvurderinger. Resultaterne af eksperimentet var opmuntrende. Den efterfølgende diskussion fremhævede også visse grimme sandheder om brugen af kredit og andre faktorer, der påvirker præmievurderingen. For eksempel:

      • Flere undersøgelser har bekræftet, at minoriteter og kvindelige bilister betaler mere for bilforsikring.
      • Kørehistorikken kan være påvirket af bias hos politiet.
      • Sporing af køreadfærd via smarte enheder kan være skævt baseret på vejforhold, der varierer mellem kvarterer.

Læs en detaljeret gennemgang fra Repræsentanternes Hus' udvalg for finansielle tjenester om bilforsikringspraksis.


Hvad bliver det næste for syntetiske data inden for forsikringsbranchen?

Der er mange måder, forsikringsselskaberne kan bruge GenAI på.

Forsikringsselskaber kan bruge generative AI-modeller til at udarbejde forskellige scenarier og derefter proaktivt identificere risici og forudsige resultater. GenAI kan informere om beslutninger om prissætning og dækning. Det kan også automatisere skadesbehandlingen for at hjælpe med at sænke omkostningerne og forbedre kundeoplevelsen (og -tilfredsheden). Det kan også bruges til at blive bedre til at identificere svindel og komme med målrettede anbefalinger til kunderne om risikoforebyggelse, der reducerer sandsynligheden for skader.

Syntetiske data er nøglen til at bryde den cyklus af bias, der opretholdes i forsikringsbranchen.

I stedet for at fokusere på potentielle negative aspekter af AI bør det kollektive forsikringssamfund stille de rigtige spørgsmål og sætte et diskret fokus på kvaliteten af de data, der bruges til at generere deres syntetiske data. På den måde kan vi beskytte privatlivets fred og reducere bias betydeligt - alt imens vi frigør den enorme værdi ved generativ AI.

Få en privat forhåndsvisning af SAS Data Maker - en brugergrænseflade med meget lidt kode og slet ingen kode til hurtigt at udvide eller generere data.
Share

About Author

Franklin Manchester

Prior to joining SAS, Franklin held a variety of individual contributor and people leader roles in Property and Casualty Insurance. He began his career as an Associate Agent for Allstate in Boone, NC. In 2005, he joined Nationwide Insurance as a personal lines underwriter. For 17 years at Nationwide, he managed personal lines and commercial lines underwriters, portfolio analysts, sales support teams and sales managers. Additionally, he supported staff operations providing thought leadership, strategy and content for sales executive offices.

Leave A Reply

Back to Top