La inteligencia artificial se perfila como un aliado de gran valor en la lucha contra el crimen financiero. Su capacidad para detectar de forma temprana posibles actividades sospechosas, analizar grandes cantidades de datos en tiempo real o automatizar la detección de fraudes, la convierte en una herramienta indispensable para las entidades financieras.
Para conseguir modelos confiables, que sean responsables y capaces de evolucionar, es fundamental tener un control absoluto sobre la información que utilizamos para generar alertas. Esto implica tener la capacidad de identificar sospechas sobre transacciones, eventos o clientes, y comprender las implicaciones morales que esto conlleva.
El riesgo utilizar sistemas discriminatorios
Entrenar modelos de predicción de aprendizaje supervisado con datos históricos, si no se toman las medidas requeridas, podría generar algoritmos discriminatorios. Algo que el sector financiero ya ha experimentado en el pasado. No debemos olvidar que las máquinas también aprenden de los errores humanos, lo que puede llevar a tomar decisiones injustas para las personas.
El caso de Apple Card es un ejemplo de ello. Fue denunciado por asignar un mayor riesgo a una mujer frente a su marido cuando el matrimonio era de bienes compartidos y, por lo tanto, tenían exactamente las mismas características financieras, a excepción del género, y aun así obtuvieron créditos dispares[i]. Precisamente son este tipo de incidentes los que se pueden evitar, integrando evaluaciones de sesgo y su mitigación en las metodologías de desarrollo.
En este contexto, existen medidas de responsabilidad (Responsible Matrix) y de imparcialidad (Fairness) que evalúan tanto la equidad de los grupos como la individual. Por ejemplo, Equal Opportunity, evalúa la ratio de falsos positivos y verifica que no esté vinculado al grupo sensible al que perteneces, mientras que Fairness through Awareness mide si predicciones similares se asignan a individuos similares.
Estas son solo algunas de las medidas que podemos implementar para asegurarnos de conocer los posibles sesgos de nuestros algoritmos. Es necesario realizar evaluaciones durante todo el ciclo de vida del modelo y no únicamente durante la fase de desarrollo, ya que el sesgo puede aparecer más adelante, a pesar de no haber sido detectado en el momento de la implementación. Por este motivo, resulta crucial tener acceso a informes periódicos que monitoricen los modelos de la forma más clara e interpretable posible. Así, seremos capaces de prevenir las irregularidades y reaccionar ante ellas.
Mitigando el sesgo algorítmico en la detección de fraude
Una vez que hayamos incorporado las evaluaciones, disponemos de numerosas herramientas para mitigar el sesgo detectado. Los métodos de mitigación se clasifican en tres grupos, según el momento del desarrollo en que se implementen:
- Pre-processing: estos métodos se aplican a los datos antes de utilizarlos en el entrenamiento de algún modelo de IA. Algunos ejemplos de estos métodos serían balancear los datos en el momento de la recolección para garantizar que todos los grupos tienen una representación significativa, eliminar la información sensible o realizar transformaciones de la base de datos. Aunque optar por este enfoque parece lo más efectivo para abordar el sesgo desde su origen, la realidad es que este puede ser muy complejo y esconderse en nuestros datos de maneras difíciles de detectar. Como consecuencia, los métodos Pre-processing suelen ser insuficientes. No es posible garantizar la eliminación del sesgo, ni justificarlo ante un auditor. De hecho, ha llegado a prohibirse en algunas regulaciones, descartándolos como métodos de mitigación.
- In-processing: se trata de métodos que se aplican durante el desarrollo o entrenamiento de los algoritmos. En este grupo gana popularidad el Adversarial Training, un método que combina el aprendizaje supervisado con un modelo "adversario" que se entrena al mismo tiempo. El modelo principal busca cumplir un objetivo específico, como detectar fraude en transacciones, mientras que el modelo adversarial busca detectar información sensible en las predicciones del modelo principal, como el género, la raza u otras características discriminatorias. Si el modelo enfrentado logra relacionar las predicciones de mayor fraude con estas variables, significa que el modelo principal está sesgado. En ese caso, se vuelve al paso uno, se realizan las modificaciones pertinentes y se reentrena el modelo principal. Este proceso de reentrenamiento y enfrentamiento se repite hasta encontrar un equilibrio entre la capacidad predictiva de ambos modelos y un sesgo mitigado. Otro método dentro de este grupo es el Exponentiated Gradient Reduction. Este algoritmo entrena los modelos de machine learning como un problema de optimización limitado por las métricas de Fairness necesarias o aplicables en el caso de uso específico. Ambos métodos son muy acertados para mantener controlado el balance entre la precisión y efectividad de los modelos y sus métricas de Fairness. Sin embargo, para hacerlo, debemos cambiar la metodología de desarrollo y entrenamiento.
- Post-processing: son soluciones aplicadas directamente al resultado del modelo predictivo. Entre ellas se encuentran la modificación de los pesos del algoritmo para grupos de población sensible, o modificar las predicciones basándonos en medidas de Fairness. Al contrario que los métodos In-processing, esta técnica ofrece la ventaja de no requerir modificaciones en el desarrollo de los modelos, que pueden permanecer como cajas negras. Por otra parte, puede suponer una pérdida de capacidad predictiva al tener un control limitado sobre el equilibrio entre las medidas de precisión y equidad.
Estas son algunas de las posibilidades a la hora de evaluar y mitigar el sesgo y la discriminación cuando desarrollamos nuestros modelos de predicción de fraude. La falta de atención a este aspecto puede tener graves consecuencias legales, reputacionales y de confianza, no solo para la entidad financiera, sino también para la tecnología de inteligencia artificial en general.
[i] Vigdor, Neil (2019) Apple Card investigated After Gender Discrimination Complaints. https://www.nytimes.com/2019/11/10/business/Apple-credit-card-investigation.html