Una de les assignatures pendents més importants que presenta l’actual desenvolupament de la Intel·ligència Artificial quan parlem del sector productiu és la verdadera integració sistèmica de la dada en els processos de decisió. De fet, és encara molt freqüent en un gran nombre d’organitzacions que, malgrat que es disposi d’una certa maduresa de les dades i fins i tot potser s’hagi aconseguit analitzar les dades disponibles de forma rutinària i gairebé automatitzada, i, potser encara es pugui reportar automàticament i periòdicament el resultat d’aquestes anàlisis, es continuïn prenent una bona part de les decisions sense acabar de tenir en compte aquests resultats. Les organitzacions data-driven requereixen un canvi de cultura que impacta en molts aspectes de l’organització, i de totes les persones que la conformen, però, a banda d’això, requereixen una adopció de la Intel·ligència Artificial que faciliti aquesta transformació.
I un dels aspectes més crítics per poder adoptar IA a nivell organitzatiu, és disposar de models explicables. En efecte, si pretenem utilitzar els resultats d’una IA per guiar l’organització, i que les decisions es basin en aquests resultats, no en tindrem pas prou amb garantir que la IA presenta uns bons nivells de predicció i no s’equivoca gairebé mai. Fins i tot quan tenim un model que funciona bé al 99% dels casos, no podrem integrar-lo bé en els nostres processos de decisió a menys que el model sigui explicable. És a dir, que el decisor pugui arribar a entendre (sense ser enginyer, ni saber d’IA ni d’estadística) el perquè de la predicció que aporta el model d’IA i pugui sustentar la decisió en un argumentari prou comprensible i convincent per part dels altres humans que han de validar la decisió, o assumir-la.
Des dels orígens més antics, als anys 50 del segle passat, hi ha una família de mètodes d’IA que s’anomenen mètodes connexionistes o subsimbòlics, que descansen sobre metàfores computacionals d’alguns sistemes d’intel·ligència col·lectiva que es poden trobar a la natura. En diem algorismes bio inspirats. I gairebé tots es basen en el principi de combinar moltes peces petites que fan cosetes simples i senzilles i quan s’ajunten totes poden resoldre problemes molt grans. Entre ells destaquen les xarxes neuronals artificials, que s’inspiren en el funcionament del cervell, i la transmissió d’impulsos entre neurones i que poden aproximar funcions de gran complexitat amb una gran precisió, però els seus resultats no són fàcils de justificar. Les xarxes neuronals artificials es coneixen, com també les seves successores les xarxes profundes (del deep learning) i la IA generativa, com sistemes de caixa negra, perquè no expliquen fàcilment com construeixen les seves prediccions i això, és clar, compromet fortament la utilització d’aquest tipus de models per a sustentar decisions estratègiques o tàctiques. Atenció, que model de caixa negra no vol pas dir que no sabem què fa l’andròmina, sinó que no ho podem explicar de forma fàcil. Per exemple, en el cas de les xarxes neuronals artificials, és perfectament possible escriure matemàticament quina fórmula genera els resultats de la xarxa a partir de les dades d’entrada. I aquesta equació és coneguda i es pot determinar. El que passa és que és tan i tan complicada, que no serveix de gaire tenir-la escrita, perquè igualment no permet entendre per què la predicció és la que és. Vegeu l’exemple amb una xarxa neuronal artificial ridículament petita, sense cap capa oculta, només dues neurones d’entrada i funció d’activació logística i només tres variables d’entrada i entendreu la mala pinta que deu tenir aquesta equació amb xarxes de cents de neurones per capa i moltes capes intermèdies.

La IA explicable és la branca de la IA que treballa per a poder complementar aquests models (que poden modelar la complexitat més elevada amb gran precisió) amb una capa argumentativa posterior que generi explicacions als resultats i faciliti aquest trànsit cap a les organitzacions data-driven. Alguns autors utilitzen indicadors numèrics per determinar les variables que més contribueixen a una predicció, com els Shapply values, i d’altres dissenyen experiments de sostenibilitat sobre les xarxes neuronals artificials ja entrenades que permeten graficar quin impacte tenen les variables sobre la resposta que surt de la xarxa. El cas és que hem de trobar la manera d’interpretar el perquè d’aquestes prediccions per poder tancar bé el cercle.
Si volem que una predicció tingui conseqüències en el món real, perquè algú prengui una (o vàries) decisions i modifiqui la realitat, és necessari que aquest algú entengui per què la màquina li proposa aquella predicció, i tingui arguments per decidir si es pot fiar o no d’aquell resultat. Ningú arrisca sobre el buit, i hem de pensar a més a més que tots els models predictius de la IA tenen uns índexs de bondat del model que estan sempre per sota del 100% i això vol dir que s’equivoquen en alguns casos.
Des d’una altra òptica, algunes de les tècniques no supervisades tampoc generen resultats que es puguin entregar directament. Seria el cas de la clusterització, que és potent detectant patrons en unes dades, però després requereix de tot un post-procés per interpretar què volen dir aquestes classes que no és gens trivial i que ha requerir llarga sorpresa.
