La primera Llei d’Intel·ligència Artificial de la Unió Europea coneguda com a AI Act s’ha fet esperar, però ja és una realitat i, malgrat els seus defectes, podem dir de forma categòrica que és millor tenir-la que no pas continuar sense (gairebé) cap regulació en matèria d’intel·ligència artificial. Des de la seva proposta legislativa l’abril de 2021 a càrrec de la Comissió Europea, fins a l’adopció pel Parlament el març de 2024, i l’aprovació via Consell el maig de 2024, han passat moltes coses no tan sols en termes de negociació del contingut, sinó també a nivell tecnològic i, encara més, en termes de conscienciació pública sobre l’impacte social i ambiental de la IA.
De fet, ens hem adonat de forma individual i col·lectiva que molt més enllà de plantejar preocupacions apocalíptiques futures improbables, posen de manifest que una acceleració de la IA sense una implementació de la nova regulació d’IA i també d’altres normatives sobre drets posen en joc temes tan cabdals del contracte social com la substitució del treball, l’ús indiscriminat de la informació sense compensació o la revisió de l’Agenda 2030 sobre desenvolupament sostenible per la gran quantitat de recursos que utilitza la IA (especialment generativa) a través d’una supercomputació i centres de dades que impliquen un alt consum d’energia, emissions de gasos d’efecte hivernacle, consum d’aigua i un ús desmesurat de materials escassos associats amb la producció, ús i vida útil dels dispositius i infraestructura informàtica.
Al marge d’aquest elements de context, es pot dir que la AI Act és principalment una regulació d’accés al mercat i de productes, especialment per a tecnologies d’IA considerades amb un major risc (per exemple, tecnologia d’IA utilitzada en l’àmbit de la salut). No obstant, també defineixen uns quants principis generals de conducta o comportament per utilitzar la IA i, en concret, a les persones afectades se’ls concedeix un “dret” particular a la informació. Això contrasta amb el GDPR, que regula principalment el comportament (tractament de dades personals) i els drets dels subjectes de dades i no pas la tecnologia que utilitza les dades. En canvi, la AI Act regula les mesures d’acompanyament que s’han d’implementar en cas que les tecnologies d’IA es considerin de risc. D’aquí que la AI Act es conegui com una legislació basada en riscos, entenent el risc com la combinació de la probabilitat de que ocorri un dany i la gravetat d’aquest dany. A partir d’aquí estableix quatre categories. Primer, aquells que són considerats inacceptables i que fan referència a un conjunt limitat d’usos de la IA que acaben sent prohibits a causa del seu impacte nociu. Segon, hi ha un nombre limitat de casos d’ús en què els sistemes d’IA s’han de considerar d’alt risc perquè poden tenir un impacte advers en la salut, la seguretat o els seus drets fonamentals de les persones i, per aquest motiu, es clasifiquen com d’alt risc. Tercer, hi ha una sèrie de sistemes d’IA que presenten riscos limitats a causa de la seva falta de transparència (és a dir, falsificacions profundes, contingut sintètic) i que estaran subjectes a requisits d’informació i transparència, especialment per fomentar la confiança. Finalment, es permet l’ús de sistemes que presenten un risc mínim per a les persones (per exemple, filtres de correu brossa assistits per una IA) i que compleixin amb la legislació aplicable (per exemple, GDPR) sense obligacions legals addicionals. Això sí, voluntàriament, es demana que s’opti per aplicar principis ètics. Al marge d’aquestes categories de risc, la AI Act ofereix normes específiques per als models d’IA de propòsit general (GPAI) i per als models GPAI amb “capacitats d’alt impacte” que podrien suposar un risc sistèmic i tenir un impacte significatiu en el mercat interior. No obstant, s’apliquen excepcions als models GPAI gratuïts i de codi obert.
Davant de la complexitat d’aplicació de la nova Llei d’IA de la Unió Europea o AI Act, l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), instrument fonamental de l’estratègia d’IA de Catalunya (Catalonia.AI), impulsada pel Govern de la Generalitat de Catalunya a través de la Secretaria de Polítiques Digitals, ha desenvolupat el nou Model PIO (Principis, Indicadors i Observables) que substitueix una versió anterior de tipus beta que proporcionava recomanacions en base a 7 principis ètics fonamentals (transparència, justícia, responsabilitat, seguretat, privacitat, autonomia i sostenibilitat). La nova eina d’avaluació, un recurs en obert i a disposició de tothom, es fonamenta en l’anterior model però té l’avantatge que està harmonitzada amb els requisits legislatius de la AI Act i d’altres legislacions sobre dades i drets, així com amb els estàndards i recomanacions ètiques actuals. En aquest sentit, el nou Model PIO és una eina que afavoreix el compliment de la normativa i regulació actual sobre riscos associats a la IA a través d’un procés de verificació exhaustiu; permet identificar accions adequades o inadequades i sensibilitzar a la quàdruple hèlix a través dels usos ètics i responsables de les dades i sistemes d’IA; i s’alinea amb la creixent adopció internacional de principis ètics i d’estàndards d’alt nivell en el disseny, implementació i ús de dades i sistemes d’intel·ligència artificial. Però el nou Model PIO va molt més enllà en l’aplicació de llistes de verificació o checklists sobre usos ètics.
Juntament amb la verificació, el nou Model PIO incorpora diversos recursos com els catàlegs i les recomanacions. Els catàlegs serveixen com a eina per localitzar i conèixer contingut específic que inclou el Model PIO. Hem desenvolupat dos catàlegs: el primer relatiu a la normativa legal i a les recomanacions ètiques existents que han configurat les qüestions plantejades al model. El segon catàleg recull exemples relacionats amb les més de cent trenta preguntes del model, que permeten filtrar les cerques a través d’exemples reals o supòsits concrets. Aquest enfocament estructurat garanteix que les consideracions ètiques, semblants a les destacades per marcs com la Llei d’IA de la UE i les directrius acadèmiques sobre l’ètica de la IA, s’integrin en la comprensió i aplicació del contingut, reforçant la importància del compliment legal i la innovació ètica en el desenvolupament i implantació de sistemes d’IA. Però, a més, també s’incorporen diverses peces legislatives que estan relacionades amb la AI Act ja que aquesta mateixa afirma repetidament que s’aplica a més de les lleis i regulacions existents, és a dir, no les limita de cap manera. Però val a dir que a més dels catàlegs, proporcionem clàusules de recomanació ètica per a la compra i adquisició de sistemes d’IA. Aquestes clàusules, que incorporen els requisits legals i els estàndards i recomanacions ètiques, serveixen com a pautes perquè les organitzacions públiques i privades les incorporin en els seus processos de contractació. Aquestes clàusules de recomanació giren al voltant dels set principis bàsics del Model PIO.
Finalment, també oferim informació sobre les característiques principals que ha de tenir una avaluació de conformitat, que està relacionada amb els sistemes d’IA d’alt risc per demostrar que un sistema compleix els requisits obligatoris per a una IA fiable (per exemple, qualitat de les dades, documentació i traçabilitat, transparència, supervisió humana, precisió, ciberseguretat i robustesa); sobre les característiques principals que ha de tenir una avaluació d’impacte en els drets fonamentals, que està relacionada amb els sistemes d’IA d’alt risc per demostrar si existeix o no un impacte en els drets fonamentals i notificar els resultats a l’autoritat nacional; i sobre les característiques principals que han de tenir les obligacions de transparència, tenint en compte que aquestes estan relacionades amb tots els sistemes d’IA.
Si voleu més informació sobre la AI Act i la seva aplicació així com sobre el nou Model PIO que hem dissenyat i desenvolupat des de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya, podeu dirigir-vos a la nostra web [https://oeiac.cat]. Promoure el desenvolupament d’una intel·ligència artificial ètica, que respecti la legalitat vigent, sigui compatible amb les nostres normes socials i culturals, i se centri en les persones, és una prioritat del Govern de la Generalitat de Catalunya que, amb l’estratègia Catalonia.AI, impulsa la consolidació de Catalunya com a pol de referència internacional en recerca, innovació, generació i atracció de talent, empreses i inversors relacionats amb IA.