La industria de seguros ha sido objeto de examen durante años debido a prácticas de «sesgo justo». De hecho, los datos incorrectos en las prácticas comerciales y los prejuicios son conocidos por los asociados de seguros. Lamentablemente, el resultado son poblaciones marginadas.

Algunos expertos de la industria —incluido un ex comisionado de seguros en Estados Unidos— creen que la discriminación se convertirá en el mayor problema de regulación de la IA. Esto se debe a que los datos de los clientes pueden revelar fácilmente demasiados datos adversos, lo que permite a las compañías de seguros elegir solo los riesgos más deseables.

¿Qué son malos datos para las empresas de seguros?

Al crear modelos, los datos de entrenamiento son muy importantes. Consideremos el ejemplo del índice de masa corporal (IMC) en los seguros de vida. Este ejemplo muestra cómo la falta de datos diversos, representativos y de alta calidad sobre seguros condujo a 80 años de un «riesgo ideal» que la Asociación Médica Estadounidense finalmente denunció como inherentemente sesgado.

En este caso, los datos del IMC se basaron en un conjunto de datos de altura y peso predominantemente de hombres blancos. Investigaciones recientes demuestran que el IMC no tiene en cuenta aspectos como la densidad ósea y la masa muscular, por lo que es una medida de evaluación de riesgos inexacta para muchas personas.

Como muestra el ejemplo del IMC, la falta de datos puede crear un sesgo de disponibilidad (una dependencia excesiva de datos a los que se puede acceder fácilmente), lo que conduce a malos resultados. Y como los datos son el combustible de la inteligencia artificial, se deduce que introducir datos erróneos en los sistemas de IA conducirá a malos resultados.

 


¿Qué son los algoritmos y por qué son importantes?

Un algoritmo de IA es una lista de instrucciones paso a paso diseñadas para realizar una tarea específica o resolver un problema específico. La generación de datos sintéticos (la creación de datos sintéticos) emplea algoritmos de inteligencia artificial, como algoritmos de aprendizaje automático y redes neuronales.


Sesgo: una palabra de cinco letras.

Históricamente, las aseguradoras han utilizado códigos postales o códigos de territorio para calcular las primas de seguros. Pero variables aparentemente inocentes como estas pueden ser indicadores de datos sensibles, como la raza, el género o la religión. Estas variables pueden, a su vez, ocultar sesgos.

Pongamos por ejemplo un artículo de Propublica de 2017 en Chicago. El artículo hablaba de las disparidades en las primas de seguros de automóviles donde los códigos postales se utilizaban como punto de datos principal para fijar las tarifas. Investigaciones posteriores demostraron que quienes vivían en áreas de códigos postales minoritarios pagaban primas más altas, manteniendo constantes factores como la edad, la cobertura, el sexo y el historial de pérdidas.

En el ejemplo más atroz, la diferencia en la prima al cambiar el código postal fue más de un 300 % mayor en vecindarios en que las minorías representaban más del 50 %. Y fue mayor en cada una de las 34 empresas citadas.

Si no se evalúan y mitigan sesgos como este, las poblaciones vulnerables quedarán aún más marginadas. La IA solo exacerbará las desigualdades.

IA y fiabilidad: Los esfuerzos para promover la alfabetización en IA, la contribución inclusiva y la confiabilidad demostrable han llegado a los niveles más altos del gobierno.

Donde entra en juego la IA generativa

La mayoría de los casos de negocio de IA generativa (GenAI) cuentan con capacidades de modelos de lenguaje grandes (LLM). Pero otro tipo de GenAI (datos sintéticos) es especialmente útil para abordar cuestiones relacionadas con los datos, como la privacidad y la equidad. Los datos sintéticos ofrecen a los modeladores la ventaja de no depender del enmascaramiento de datos para proteger datos personales confidenciales. Considerando lo que dicen estas organizaciones:

¿Demasiado bueno para ser verdad? De ninguna manera.

Un ejemplo del mundo real de resultados de datos sintéticos

En 2022, SAS, en colaboración con Syntho y la Coalición Holandesa de IA, demostró que los datos sintéticos producían resultados más confiables que los datos anonimizados, al tiempo que mantenían los patrones estadísticos profundos necesarios para un análisis más avanzado.

Estos avances, junto con las crecientes preocupaciones sobre la protección de la privacidad, son la razón por la que el IDC predice que para 2027, el 40 % de los algoritmos de inteligencia artificial que utilizan las aseguradoras en toda la cadena de valor de los asegurados utilizarán datos sintéticos para garantizar la equidad dentro del sistema y cumplir con las regulaciones.

Datos sintéticos para seguros: ¿santo grial o aceite de serpiente de IA?

Los datos sintéticos, por sí solos, no curarán todas las heridas. Recuerde, aún necesita los datos originales para crear los datos sintéticos. Debido a esto, aún pueden prevalecer sesgos perpetuados en los datos originales.

Cualquier diálogo sobre el consumo seguro de IA, incluida la GenAI, debe reconocer varias verdades:

  • El sesgo crea desigualdades.
  • Todos los modelos poseen sesgos.
  • El sesgo puede mitigarse, pero no eliminarse.

Para posicionarse como líderes en este espacio, las organizaciones deben desarrollar sus propios principios de IA confiables. También deberían::

  • Fomentar una cultura de alfabetización en datos y el uso de decisiones basadas en datos.
  • Capacite a los empleados para que denuncien riesgos de IA no deseados.
  • Adopte un código de ética de datos como parte integral de su empresa.

Recientemente, SAS organizó un proyecto de seguros de datos sintéticos con una gran aseguradora que experimentó con datos sintéticos y calificación crediticia. Los resultados del experimento fueron alentadores. La discusión que siguió, también destacó ciertas verdades desagradables sobre el uso del crédito y otros factores que afectan la calificación de las primas. Por ejemplo:

      • Múltiples estudios han confirmado que las minorías y las conductoras pagan más por el seguro de automóvil.
      • El historial de conducción puede verse influenciado por el prejuicio policial.
      • El seguimiento del comportamiento de conducción a través de dispositivos inteligentes puede estar sesgado según las condiciones de la carretera que varían entre los vecindarios.

Lea una revisión detallada del Comité de Servicios Financieros de la Cámara de Representantes sobre prácticas de seguros de automóviles.


¿Qué depara el futuro de los datos sintéticos en los seguros?

Hay muchas formas para que las aseguradoras utilicen GenAI.

Las aseguradoras pueden utilizar modelos generativos de IA para crear escenarios y luego identificar riesgos de forma proactiva y predecir resultados. GenAI puede informar  la toma de decisiones sobre precios y cobertura. También puede automatizar el procesamiento de reclamos para ayudar a reducir costes y mejorar la experiencia (y la satisfacción) del cliente. También se puede utilizar para mejorar la detección de fraude y puede hacer recomendaciones específicas de prevención de riesgos a los clientes que reduzcan la probabilidad de reclamaciones.

Los datos sintéticos son la clave para romper el ciclo de sesgo perpetuado en la industria de seguros.

En lugar de centrarse en los posibles aspectos negativos de la IA, la comunidad de seguros colectivos debería hacer las preguntas correctas y centrarse discretamente en la calidad de los datos que se utilizan para generar sus datos sintéticos. Como resultado, podemos proteger la privacidad y reducir significativamente los prejuicios, y al mismo tiempo desbloquear el enorme valor de la IA generativa.

Obtén una vista previa de SAS Data Maker: interfaz bajo código y sin código para aumentar o generar datos rápidamente
Share

About Author

Franklin Manchester

Prior to joining SAS, Franklin held a variety of individual contributor and people leader roles in Property and Casualty Insurance. He began his career as an Associate Agent for Allstate in Boone, NC. In 2005, he joined Nationwide Insurance as a personal lines underwriter. For 17 years at Nationwide, he managed personal lines and commercial lines underwriters, portfolio analysts, sales support teams and sales managers. Additionally, he supported staff operations providing thought leadership, strategy and content for sales executive offices.

Leave A Reply

Back to Top