Actualizado el 12/10/2021

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Opiniones
  4. >
  5. IAX: Inteligencia Artificial Explicable

IAX: Inteligencia Artificial Explicable

Escrito por Carles Soler Puig el 13/07/2021 a las 23:13:41
1163

(Presidente de Fundación educaBOT)

Desde siempre, la humanidad ha tenido el deseo de predecir el futuro para así poder tomar mejores decisiones en el presente. Las bolas de cristal, cartas del tarot, posos de café y otros métodos utilizados a lo largo de la historia han mostrado unos resultados muy argumentables. Pero parece que, esta vez sí, hemos desarrollado un artilugio que nos permite adelantar con un éxito razonable los eventos venideros: los modelos analíticos generados mediante Inteligencia Artificial (IA).

 

La idea es simple: si tengo un modelo que se ajusta a lo que ha pasado hasta ahora, extrapolándolo podré avanzarme a lo que ha de venir. Evidentemente, estos sistemas no pueden predecir disrupciones, pero como que de éstas se producen pocas, en general los modelos aciertan. Construirlos, conceptualmente también es simple: si tengo muchos datos y suficiente capacidad de cálculo, puedo ir ajustando un modelo hasta encontrar que encaje con lo que ha pasado hasta ahora.

 

En muchos ámbitos hoy disponemos de datos suficientes para generar modelos que nos respondan con un adecuado grado de certidumbre a ciertas preguntas a futuro: ¿este solicitante me devolverá el crédito? ¿este lunar desarrollará un tumor? ¿este convicto volverá a prisión si le doy un permiso? ¿venderé más caro este Ibiza del 2012 si lo pinto de rojo?

 

Pero a pesar de su innegable espectacularidad tecnológica, los modelos IA de predicción históricamente han presentado un problema: no sabíamos por qué funcionaban. Es el conocido como efecto de la caja negra: metemos datos, sacamos datos, pero desconocemos qué razonamiento sigue el sistema, que ha generado el modelo por su cuenta. Trabajar en modo “caja negra” tiene dos inconvenientes principales: 1) puede que el resultado propuesto no ofrezca un óptimo, o sea correcto para todo el rango de valores de entrada; y 2) puede que reproduzca sesgos ya presentes en los datos de origen, de manera que es fácil que nuestro decisor sea injusto.

 

Para responder a estos inconvenientes ya hace un tiempo que se viene trabajando en el concepto de Inteligencia Artificial Explicable (IAX, Explainable Artificial Intelligence, XAI). Básicamente consiste en el desarrollo de unos algoritmos gracias a los cuales podemos identificar las variables que afectan a nuestras previsiones y en qué grado. Es decir, no intervienen en la construcción del modelo, sino que una vez generado lo “transparentizan”.

 

Explicar un modelo permite entenderlo para, como se apuntaba anteriormente, optimizar un cierto resultado (si quiero revender este coche ¿es mejor invertir en repintarlo o en cambiarle las llantas?) e identificar sesgos (¿cómo es que el sexo influye en la decisión sobre la concesión de un crédito?), por lo que el resultado es el incremento de la confianza en las predicciones, que no olvidemos, se usan para la toma de decisiones.

 

Hasta el momento, la IAX se había desarrollado en entornos de investigación, pero sus innegables ventajas hacían que fuera cuestión de tiempo la aparición de propuestas comerciales orientadas a empresas y organizaciones que ya disponen de una cultura data-driven. Google, IBM y algún otro gigante tecnológico incluyen en su portfolio soluciones de IAX, pero no ha sido hasta la reciente aparición de EXPAI (www.expai.io) que la propuesta de valor de la explicabilidad se ha puesto en el mercado de manera sencilla, visual y flexible.

 

Por cierto, la innovadora propuesta tecnológica de EXPAI se lanza desde el rico ecosistema emprendedor de Barcelona. Un motivo adicional de satisfacción al de disponer de soluciones que permiten sacar el máximo provecho de los modelos analíticos.