
Karina Gibert
Catedràtica i directora del centre de recerca en Ciència Intel·ligent de dades i Intel·ligència Artificial de la Universitat Politècnica de Catalunya
Degana de l’Il·lustre Col·legi Oficial d’Enginyeria Informàtica de Catalunya
1. Introducció
La Intel·ligència Artificial neix a l’Escola d’estiu de Darmouth el 1956 amb la idea de fer màquines que imitin la intel·ligència humana, i ja des dels orígens s’ha desenvolupat en dues branques, conegudes com la IA simbòlica i la IA subsimbòlica o connexionista. Mentre la primera posa el focus en la resolució de problemes que requereixin intel·ligència imitant com els resol un humà, la segona posa més aviat el focus en obtenir millors i més ràpids resultats que l’humà però no necessàriament seguint els mateixos mecanismes de raonament que utilitzem les persones.
Fa uns anys la IA ha envaït de forma intensiva el sector productiu per fomentar la inserció de la dada en els processos de decisió, i ho ha fet en la seva nova vessant menys simbòlica i més dedicada a utilitzar la computació intensiva i les tecnologies emergents (tecnologies de núvol, Internet de les Coses, Dades massives o Computació d’Altes Prestacions) per extreure valor afegit de les dades (en sentit ampli: números, dades de sensors, imatges, vídeos, àudios, textos…).
2. L’expansió de la IA
La IA que s’ha fet famosa darrerament es basa sobretot en la utilització de molta dada històrica de tota mena per aprendre els patrons que governen els fenòmens, i poder fer prediccions anticipades de com aniran les coses (en vendes, stock, facturació, demanda, clients, baixes dels treballadors, eficiència dels processos productius, tractaments o productes recomanats en funció del perfil d’usuari/client, avaries, malalties, col·lapses de serveis, beneficis esperats, temps d’espera, etc). De fet, en qualsevol vertical i en qualsevol punt d’un procés o ecosistema, allí hi ha espai per a que una IA aprengui i ajudi a anticipar-se. La major part de prediccions es fan entrenant models del que es coneix com a xarxes neuronals artificials, exponent molt representatiu de la IA subsimbòlica, que amb els anys ha generat el deep-learning i les darreres evolucions de la IA generativa. Tots ells models que requereixen un elevant consum de dades d’entrenament, a canvi de poder copsar les estructures més complexes i les interaccions de major grau. Així el BigData s’ha fet protagonista de primera línia a l’escenari de la IA i amb el temps, s’ha creat la percepció il·lusòria que la IA es redueix al deep-learning i el BigData i la IA generativa i que sense BigData ningú pot fer IA de qualitat.
El cert és però que, mentre les grans corporacions han pogut adoptar processos de IA de forma massiva i millorar de forma molt significativa els seus negocis, hi ha un gruix enorme del sector productiu que encara s’està plantejant com fer aquest salt. Fora de les grans corporacions és infreqüent disposar de bases de dades històriques tan llargues com aquests models requereixen. I a més, amb les noves regulacions, encara que les tinguéssim moltes vegades no podem utilitzar-les sense consentiment (radiografies pulmonars per exemple). En efecte, PIMEs, microempreses, free-lances, autònoms, o empreses mitjanes de llarga tradició (una bona part del comerç més tradicional), ni han iniciat encara el procés de transformació digital o no disposen de bases de dades històriques gaire llargues i es miren aquesta revolució una mica des de la barrera.
3. Una altra mirada
Indubtablement la Societat Digital ha arribat per quedar-se, i la IA hi juga un paper clau. Les oportunitats de la IA per l’economia i l’empresa són enormes, podent aplicar-se absolutament a tots els verticals. Com a bona disciplina instrumental que és, el valor de la IA es troba justament en el que pot aportar a altres àmbits, com el comerç, la salut, el medi ambient, el treball, el turisme, la indústria, etc.
I la realitat és que disposar de BigData per poder entrenar els més recents models d’IA intensiva en computació no és ni tan fàcil, ni tan freqüent, ni tan innocu. I val la pena meditar, no només si és fàcil, sinó si és convenient. Sempre que parlem de nous fàrmacs, d’assajos en salut, de testos de resistència de nous materials (que són destructius), haurem de fugir del BigData, encara que tinguem l’organització més gran del món. I sempre que parlem d’organitzacions petites, senzillament tindrem dificultat per reunir grans quantitats de dades. És per això, per exemple, que actualment s’estan introduint nous enfocs basats en el que s’anomena dades federades, que permeten coalicionar dades de diferents organitzacions per fer, per entendre’ns, causa comú per poder entrenar models estables de IA, però sense moure la dada de l’organització original mentre se n’extreu el màxim valor tot combinant l’entrenament de moltes bases de dades independents, distribuïdes i més petites, respectant les privacitats. I encara més, existeixen els models de transfer learning que permeten especialitzar una IA entrenada amb dades més genèriques al context específic d’una companyia determinada aprofitant tot l’entrenament previ, i fent que unes poques dades pròpies de la companyia serveixin només per arrodonir l’entrenament de la IA i incorporar així en el model les especificitats de l’empresa en qüestió. D’altra banda és important plantejar-se fins a quin punt és necessari el BigData indiscriminat (quants Smart Watches mesuren pressió cada 5 minuts de milions de ciutadans cada dia i registren mesures sempre normals per tothom durant mesos….) només les mesures anòmales duen càrrega informativa en aquest mar de dades, i en canvi la petjada de carboni de guardar-les i processar-les totes ens hauria de preocupar. De fet, cal guardar totes les dades massives?
Un altre repte lligat a aquest tipus de models és que, si bé fan prediccions prou bones i ràpides, no faciliten el per què de la predicció (o almenys no directament), i dificulten poder-la justificar. En efecte, si no parlem de decisions molt operatives com pujar una persiana o la temperatura d’un forn industrial, aquesta manca d’argumentari resulta més limitant quan parlem de decisions estratègiques (on obrim la propera filial o quin nou producte traiem la propera temporada), o de l’elaboració de polítiques públiques basades en models de dades (com quins carrers fem de doble sentit o únic en una ciutat). És per això que la IA ha desenvolupat una nova branca de recerca que s’anomena Explainable AI (Explicabilitat), que busca les formes de poder argumentar per què una IA fa una predicció o una altra, contribuint així a l’adopció real de la IA en els processos de decisió. Ja que sense argumentació de les decisions és difícil poder-les assumir.
La IA té altres branques que no són el deep-learning, ni els models predictius de l’aprenentatge automàtic basat en dades (grans o petites, federades o no, amb entrenament propi o transferit….) i que aborden la comprensió de fenòmens complexos en estadis més primigenis de la transformació digital, quan per exemple, encara no ens preocupa anticipar-nos, ni predir el que passarà, sinó més aviat entendre com funcionem com a organització o com són els nostres clients, o els nostres proveïdors i poder planificar el propi procés de transformació digital de forma intel·ligent. És aquí on eines de la Intel·ligència Artificial més clàssica com els models de representació del coneixement, l’enginyeria del coneixement, o l’aprenentatge no supervisat poden ser una oportunitat inigualable per activar la palanca de canvi en organitzacions més petites que no poden, ara per ara, i totes soles, pujar al carro del Bigdata, el deep learning o la IA generativa.
Crec que des del sector de la IA tenim una gran responsabilitat, no només a disparar el creixement de les empreses més tecnificades, que estan realitzant la transformació digital sense impediments perquè el seu nivell de maduresa en dades i tecnologia ja els hi permet, sinó a ajudar a que les que estan en nivells més prematurs de maduresa o tenen estructures més modestes puguin igualment enfrontar els reptes de la societat digital amb solvència i transformar-se de forma segura i eficient. En aquest sentit, Catalunya té una estratègia d’IA llençada el febrer de 2020 i compta amb aliances com CIDAI, AIRA, OEIAC o la DCA i el DIH4cat que permeten a les petites empreses accedir a fons d’innovació per fer prototipatge i testeig de sistemes d’IA ètics.
La IA és una tecnologia d’alt impacte que aporta enormes beneficis pel desenvolupament econòmic i social, però també comporta uns riscos, majorment lligats als usos i a com configurem les dades que l’alimenten. Riscos que poden revertir en la vulneració de drets fonamentals o en l’increment de les desigualtats socials en diferents aspectes. És per això que la Comissió Europea treballa des del 2018 en establir un marc ètic per les aplicacions de la IA i en una Llei Europea de la IA que permeti regular el sector. El passat 14 de juny de 2023, el Parlament Europeu va aprovar el Reglament Europeu de la Intel·ligència Artificial per 499 vots a favor, 28 en contra i 93 abstencions. S’enviarà ara la proposta al Consell d’Europa i els Estats membres hi podran dir la seva. Es preveu que el Reglament (que no requerirà transposició, ni adaptació) pugui entrar en vigor el juny 2026. Espanya mentrestant, encapçala el primer i únic pilot (sandbox) previst a Europa per assajar com de fàcil és crear i implantar sistemes d’IA alineats amb aquest Reglament. El sandbox, presentat el passat mes de juny, es llençarà a l’octubre de 2023 amb l’objectiu de generar guies de bones pràctiques i directrius per l’aplicació del Reglament, i enviarà feedback sobre l’operativitat del mateix des de les empreses cap a la pròpia Comissió Europea, que es tindrà en compte per a la redacció reglament definitiu.