Una de las asignaturas pendientes más importantes que presenta el actual desarrollo de la Inteligencia Artificial cuando hablamos del sector productivo es la verdadera integración sistémica del dato en los procesos de decisión. De hecho, es todavía muy frecuente en un gran número de organizaciones que, a pesar de que se disponga de cierta madurez de los datos e incluso quizás se haya conseguido analizar los datos disponibles de forma rutinaria y casi automatizada, y, quizás todavía se pueda reportar automáticamente y periódicamente el resultado de estos análisis, se sigan tomando una buena parte de las decisiones sin terminar. Las organizaciones data-driven requieren un cambio de cultura que impacta en muchos aspectos de la organización, y de todas las personas que la conforman, pero, además, requieren una adopción de la Inteligencia Artificial que facilite esta transformación.
Y uno de los aspectos más críticos para poder adoptar IA a nivel organizativo es disponer de modelos explicables. En efecto, si pretendemos utilizar los resultados de una IA para guiar a la organización, y que las decisiones se basen en estos resultados, no tendremos suficiente con garantizar que la IA presenta unos buenos niveles de predicción y no se equivoca casi nunca. Incluso cuando tenemos un modelo que funciona bien en el 99% de los casos, no podremos integrarlo bien en nuestros procesos de decisión a menos que el modelo sea explicable. Es decir, que el decisor pueda llegar a entender (sin ser ingeniero, ni saber de IA ni de estadística) el porqué de la predicción que aporta el modelo de IA y pueda sustentar la decisión en un argumentario suficientemente comprensible y convincente por parte de los demás humanos que deben validar la decisión, o asumirla.
Desde los orígenes más antiguos, en los años 50 del siglo pasado, existe una familia de métodos de IA que se llaman métodos conexionistas o subsimbólicos, que descansan sobre metáforas computacionales de algunos sistemas de inteligencia colectiva que se pueden encontrar en la naturaleza. Lo llamamos algoritmos bio inspirados. Y casi todos se basan en el principio de combinar muchas piezas pequeñas que hacen cositas simples y sencillas y cuando se juntan todas pueden resolver problemas muy grandes. Entre ellos destacan las redes neuronales artificiales, que se inspiran en el funcionamiento del cerebro, y la transmisión de impulsos entre neuronas y que pueden aproximar funciones de gran complejidad con gran precisión, pero sus resultados no son fáciles de justificar. Las redes neuronales artificiales se conocen, así como sus sucesoras las redes profundas (del deep learning) y la IA generativa, como sistemas de caja negra, porque no explican fácilmente cómo construyen sus predicciones y esto, por supuesto, compromete fuertemente la utilización de este tipo de modelos para sustentar decisiones estratégicas o tácticas. Atención, que modelo de caja negra no quiere decir que no sabemos qué hace el trasto, sino que no podemos explicarlo de forma fácil. Por ejemplo, en el caso de las redes neuronales artificiales es perfectamente posible escribir matemáticamente qué fórmula genera los resultados de la red a partir de los datos de entrada. Y esa ecuación es conocida y se puede determinar. Lo que ocurre es que es tan y tan complicada, que no sirve de mucho tenerla escrita, porque igualmente no permite entender por qué la predicción es la que es. Véase el ejemplo con una red neuronal artificial ridículamente pequeña, sin ninguna capa oculta, sólo dos neuronas de entrada y función de activación logística y sólo tres variables de entrada y entenderá la mala pinta que debe tener esta ecuación con redes de cientos de neuronas por capa y muchas capas intermedias.[ height=»15px»]La IA explicable es la rama de la IA que trabaja para poder complementar estos modelos (que pueden moldear la complejidad más elevada con gran precisión) con una capa argumentativa posterior que genere explicaciones a los resultados y facilite este tráfico hacia las organizaciones data-driven. Algunos autores utilizan indicadores numéricos para determinar las variables que más contribuyen a una predicción, como los Shapply values, y otros diseñan experimentos de sostenibilidad sobre las redes neuronales artificiales ya entrenadas que permiten graficar qué impacto tienen las variables sobre la respuesta que sale de la red. El caso es que debemos encontrar la forma de interpretar el porqué de estas predicciones para poder cerrar bien el círculo.
Si queremos que una predicción tenga consecuencias en el mundo real, para que alguien tome una (o varias) decisiones y modifique la realidad, es necesario que ese alguien entienda por qué la máquina le propone esa predicción, y tenga argumentos para decidir si se puede fiar o no de ese resultado. Nadie arriesga sobre el vacío, y debemos pensar además que todos los modelos predictivos de la IA tienen unos índices de bondad del modelo que están siempre por debajo del 100% y esto significa que se equivocan en algunos casos.
Desde otra óptica, algunas de las técnicas no supervisadas tampoco generan resultados que puedan entregarse directamente. Sería el caso de la clusterización, que es potente detectando patrones en unos datos, pero después requiere de todo un post-proceso para interpretar qué quieren decir estas clases que no es nada trivial y que debe requerir larga sorpresa.