La introducción de la Inteligencia Artificial (IA) en múltiples industrias a lo largo de los últimos años ha impulsado una auténtica revolución tecnológica, incluyendo en la detección e investigación de fraude u otros delitos financieros. A pesar de que los avances en esta materia varían según el sector o la región, ya hemos podido observar el gran impacto que ha tenido en la transformación digital de la banca, la automatización de procesos y en la detección de patrones fraudulentos basados en Machine Learning, entre muchas otras. Sin embargo, su uso generalizado y las nuevas aplicaciones han desatado una serie de desafíos que ponen en relieve la necesidad de introducir nuevos controles capaces de garantizar su seguridad y buena práctica.
La importancia de la responsabilidad en el desarrollo de IA
Un caso conocido expone el mal funcionamiento de un algoritmo utilizado para evaluar la puesta en libertad de reclusos. El sistema Compas asignó una alta puntuación al prisionero Glenn Rodríguez, impidiéndole la excarcelación a pesar de su impecable comportamiento y el cumplimiento de todos los requisitos. Rodríguez finalmente logró su libertad al detectar y reclamar el error del algoritmo. Sin embargo, su abogado denuncia que su salida de la cárcel debería haberse producido mucho antes.[i]
Este es solo un ejemplo de las múltiples situaciones en las que la IA ha podido ocasionar incidentes que han afectado en profundidad a la vida de las personas, causando una reacción inmediata en la sociedad. Por ello, las autoridades regulatorias han impulsado el desarrollo de leyes específicas para proteger a los individuos, asegurando el uso correcto y fructífero de los algoritmos, especialmente en casos de usos tan sensibles como la seguridad ciudadana, del que también es parte el tratamiento de los delitos financieros. Estas leyes también establecen unas bases claras para que la comunidad científica y proveedora de la tecnología pueda satisfacer los requerimientos éticos y legales. En este contexto, desde nuestro departamento de Data Ethics en SAS, hemos desarrollado unos principios de responsabilidad para el desarrollo y la implementación segura de esta tecnología.
Maximizar el beneficio de utilizar la IA gracias a la ética
En primer lugar, es fundamental que la IA beneficie a la sociedad. Para ello, se debe tomar en cuenta principios clave como la inclusividad, transparencia, fiabilidad y seguridad. Es necesario concretar, para cada uno de los casos de uso, la sensibilidad que supone utilizar estos algoritmos de IA para la detección e investigación de fraude, blanqueo de capitales u otros delitos financieros.
Estos algoritmos se han convertido en una necesidad para las entidades financieras debido a la transformación digital, la competitividad del mercado y la eficiencia de los sistemas. Ya se han demostrado los múltiples beneficios que se obtienen de su uso, pero debemos analizar cómo podemos garantizar su uso correcto teniendo en cuenta la ética y velar por el bienestar de los usuarios y la protección de sus datos.
Debemos enfocar el uso de la IA como una herramienta para mejorar la experiencia de los usuarios que son evaluados por nuestros modelos, así como la de los responsables de prevención, detección e investigación de los delitos financieros. Por una parte, tenemos que proteger a la población del fraude mediante mayor capacidad predictiva y, por otra, debemos garantizar la protección de sus datos, la transparencia y el uso ético de su información. Para obtener el máximo beneficio de nuestros algoritmos, estos deben estar diseñados por y para las personas, y dentro de la IA contamos con metodologías específicas que nos pueden ayudar a satisfacer esta necesidad.
Pasos hacia una implementación responsable
Para cumplir con el objetivo de ganar inteligencia y control sobre la detección e investigación de fraude, debemos tener siempre una visión global de nuestros métodos. Para que esto sea así, es necesario conseguir:
- Modelos confiables: la monitorización constante de la eficacia de nuestros modelos a múltiples niveles nos permite otorgarles el peso adecuado y asegurar la capacidad de reacción ante cambios en el rendimiento que no cumplan con los requisitos. Para que la confianza vaya más allá de los científicos de datos y analistas, es fundamental la transparencia con una fuerte interpretabilidad que explique la importancia de la información. Esto implica cumplir con los requisitos internos y regulatorios, y construir una reputación positiva y la confianza del público general.
- Dinamismo y evolución: las metodologías empleadas deben ser adaptables para detectar con rapidez los nuevos patrones de fraude y tipologías en constante evolución. No solo por eficiencia, sino también por responsabilidad, ya que debemos estar preparados para modificar los procedimientos si fuera necesario. Esto incluye mitigar el sesgo y otras prácticas contrarias a la ética, o cumplir con los requerimientos legales. Gracias a la IA, es posible automatizar los procesos manuales y agilizarlos. De esta manera, podemos centrarnos en el conocimiento humano, que es el que debe guiarnos para obtener un mayor beneficio, manteniendo al mismo tiempo los estándares de negocio y de ética.
- Responsabilidad: la clave para el éxito de una implementación de IA es ser conscientes de que somos plenamente responsables del funcionamiento y del impacto de los algoritmos que desarrollamos y ponemos en producción. Esto implica tener un control y entendimiento absoluto de lo que sucede en ellos, pero también el compromiso de transparencia facilitando la interpretabilidad para otros. Por lo tanto, se trata de aplicar las mismas restricciones éticas y morales que tenemos en consideración como humanos a cualquier otra tecnología que desarrollemos.
Si bien hay que tener en cuenta ciertos aspectos al adoptar la inteligencia artificial, esta tecnología también tiene la solución. La IA es capaz de proporcionar las herramientas necesarias para gestionar y controlar estas variables de forma eficiente, convirtiéndola en una herramienta totalmente compatible con la ética y el garantizar el bienestar humano general.
¿Quieres conocer nuestras soluciones para la prevención y detección de fraudes?
[i] Wexlet, Rebecca (2017) When a Computer Program Keeps you in Jail. https://www.nytimes.com/2017/06/13/opinion/how-computers-are-harming-criminal-justice.html