IA explicable: ¿por qué es tan importante explicar la inteligencia artificial?

0

Tras la reciente aprobación de la regulación europea del uso de la inteligencia artificial, hemos observado cómo cobra fuerza el concepto de explainable AI o inteligencia artificial explicable. ¿En qué consiste exactamente? Su objetivo pasa por garantizar que las interacciones de los usuarios con los modelos en los que se basa la IA sean éticas, morales y no contengan sesgos.

Podríamos decir que hay dos factores clave que determinan el interés en la explainable AI o la inteligencia artificial explicable: el impacto social de la inteligencia artificial y la complejidad de los modelos.  No podemos obviar la influencia que estos sistemas tienen ya en la vida de las personas. Pensemos, por ejemplo, en el uso de inteligencia artificial para el cribado de candidatos en un proceso de selección. Si los modelos que se utilizan han sido entrenados con datos que no representan de forma equitativa distintos géneros, razas o religiones; éstos podrían estar sesgados y provocar discriminación hacia determinados colectivos.

El segundo factor, como señalaba, está vinculado a la propia complejidad de los modelos actuales. Si nos remontamos en el tiempo, podemos comprobar que los modelos más clásicos, como los que utilizan las entidades financieras para decidir si se concede o no a un cliente un préstamo hipotecario, se llevan utilizando varias décadas. De forma más reciente, con el advenimiento del Big Data, la mayor potencia de los servidores y el cloud, han surgido algoritmos complejos de machine learning o deep learning. Algunos ejemplos de su aplicación son los sistemas de reconocimiento biométrico del móvil o los asistentes virtuales que nos permiten interactuar con el coche a través de la voz.

Este tipo de modelos de mayor complejidad son conocidos como modelos de caja negra que, en ocasiones combinan modelos más simples (caja blanca), pero que son mucho más difíciles de entender. En un modelo más simple se podría interpretar qué pasaría si una determinada variable que alimenta ese modelo empieza a aumentar, observando el impacto que tiene en la predicción. Sin embargo, en el caso de un modelo complejo es muy difícil ver cómo va a responder ante un aumento de determinadas condiciones de ese modelo (edad, poder adquisitivo de la persona, etc).

En este contexto se hace necesario un marco que regule la responsabilidad de las organizaciones o personas que crean estos modelos con respecto a los datos y a las técnicas de modelización que está utilizando para construir ese modelo.

Cómo garantizamos un uso ético y responsable de la IA

Organizaciones y administraciones públicas de todo el mundo se enfrentan hoy al reto de regular esta parte ética y garantizar el compromiso moral de la IA para conseguir la confianza de los ciudadanos. Éstos valorarán positivamente a las empresas cuyas recomendaciones y algoritmos que haya detrás consideren justos y equitativos y penalizarán a las que no cumplan con estos criterios éticos y morales.

Podríamos señalar tres principios fundamentales para un uso ético de la IA:

  • Garantizar que el dato tiene la calidad necesaria y asegura la equitatividad, la privacidad, la seguridad y la transparencia.
  • El control y el gobierno de los modelos, estableciendo un proceso de seguimiento con responsables directos para cada proyecto de IA, que permitan una monitorización, una auditoría de los resultados y mantener la trazabilidad de la toma de decisiones automatizada.
  • Capacidad de realizar ajustes y de explicar la IA, ya sea internamente o a un regulador. Gracias a técnicas de procesamiento del lenguaje natural, generación de informes gráficos, estadísticas de los modelos y sus datos y herramientas de customización de éstos, las empresas pueden editar los algoritmos en caso de que operen fuera de los límites éticamente definidos. Al mismo tiempo, pueden explicar los resultados de la IA, señalando las variables que tienen más peso en los modelos, la relación entre ellas y el impacto que puede tener un cambio en estas variables.

Estos principios serían la base para un uso de la IA basado en la ética y la responsabilidad, capaz de garantizar la integridad de los datos y de la información y de generar una relación de confianza entre tecnología, organizaciones y sociedad. Solo a partir de ahí seremos capaces de desplegar todo el potencial de la inteligencia artificial.

¿Quieres conocer nuestra visión de la ética en el uso de la Inteligencia Artificial?

 

 

 

 

 

 

 

 

 

 

 

 

Share

About Author


Editing SAS Spain blogs.

Leave A Reply

Back to Top