
Carme Fabregas
Directora de Sistemes i Innovació
ATM Barcelona
Vivim una carrera digital accelerada en què la nostra capacitat d’anàlisi està bloquejada per la nostra disposició a sorprendre’ns. Admetem-ho: som part de la cadena de valor de noves i més atractives aplicacions, cada cop més personalitzades, que es colen a la nostra mà sovint de forma inadvertida.
Darrere del festival d’aplicacions que fem servir en el nostre dia a dia, amb la intel·ligència artificial com a denominador comú, sorgeix el dubte de si tot plegat ens porta a la millor de les opcions o si pel camí perdem capacitat de decidir o el nostre sentit ètic.
La intel·ligència artificial aglutina un ampli vano de tècniques i metodologies informàtiques destinades a complementar, si no replicar i millorar, habilitats cognitives humanes. Té en els denominats Machine i Deep Learning els seus principals camps de desenvolupament i aquests es focalitzen en el desenvolupament d’algorismes i models que habiliten els ordinadors a aprendre, fer prediccions i prendre decisions a partir d’un conjunt de dades determinat i sense una programació explícita.
Sydney J. Harris, assagista i periodista angloamericà, ho resumia molt bé en els seus treballs de finals del segle passat: “El perill real no és que els ordinadors pensin com les persones, sinó que els humans comencin a pensar com els ordinadors”.
Admetríem que la intel·ligència artificial és capaç de reproduir els biaixos humans com el sexisme o el racisme? És possible que una màquina o una aplicació sigui capaç de tenir preferències?
Des d’un temps s’està treballant per posar en relleu la importància de la transparència dels algoritmes informàtics en què es basen totes aquestes aplicacions, entre les que tenim, exemple, els planificadors de rutes, els analitzadors i validadors de dades, les plataformes de serveis de mobilitat, etc.
Per exemple, una aplicació podria prioritzar uns serveis de mobilitat que beneficiessin certs grups demogràfics, com els de certs barris de la ciutat enfront d’àrees infra-servides. O podria passar que en el disseny d’una aplicació involuntàriament passessin per alt realitats que afectessin l’accés als serveis per grups específics de la societat, com pot ser gent gran o col·lectius amb sensibilitats especials, si les rutes de transport són discontínues o es modifiquen basant-se solament en mètriques de cost-eficiència. També és una realitat que aquells algoritmes que optimitzen els seus resultats basats en respostes d’usuari o de patrons de demanda, són proclius a amplificar, de forma inadvertida, els biaixos preexistents en les dades que utilitzen.
Cal comprendre el procés d’aprenentatge automàtic per entendre com es dona lloc a la discriminació algorítmica, conèixer que hi ha eines per combatre-la i analitzar i aplicar la normativa i legislació aplicable sobre la mateixa. Potenciar així la justícia algorítmica.
Què s’entén per un algoritme fair, imparcial i just? Poden garantir els algoritmes una major neutralitat i eficiència? Com podem fer prevaldre la nostra humanitat en un món calculat?
La recent exposició Codi i algoritmes, (1) que s’ha pogut veure fins el passat 18 de febrer a Brussel·les, dins el marc de la presidència espanyola de la UE, ha buscat fer comprensible aquest fenomen generant preguntes però sobretot respostes per apropar el coneixement i la reflexió.
L’elecció de l’algoritme així com la qualitat del conjunt de dades de base que s’utilitzen per que aquest aprengui i generi patrons, -els quals seran la referència per elaborar les decisions- té, consegüentment, consideracions societàries i ètiques, per no parlar de les d’impacte ambiental.
I és que al final un algoritme és un conjunt d’ordres de computació. Sabem que la complexitat dels càlculs així com la seva natura, habitualment propietària, sol impedir-ne la transparència. Però ho solem passar per alt. Confiem tant en la tecnologia, en general, a la societat, que fa que cada vegada deleguem en els algoritmes decisions de major transcendència.
D’aquest perill ens n’alerta el filòsof Yuval Noah Harari en el llibre “21 lliçons per al segle XXI”, un consistent assaig sobre les conseqüències d’un món en el qual les principals decisions són preses per complexos càlculs de computació que no es coneixen ni comprenen.
Hi ha hagut casos remarcables que ens visibilitzen la importància de l’ètica i la transparència dels algoritmes. Un que va tenir un clamor a la premsa fou el de la Timnit Gebru, codirectora d’ètica per a la IA de Google, que fou acomiadada(2) mentre treballava sobre els riscos dels grans models de llenguatge de IA, entrenats amb ingents quantitats de dades. Gebru és coneguda pel seu treball estratègic per revelar la discriminació de la IA, desenvolupar mètodes per documentar i auditar els models d’IA i defensar una major diversitat en la recerca.
De la mateixa manera que no compraríem un cotxe sense cinturó de seguretat, normalitzem que la transparència dels algoritmes sigui la nova norma. En l’entrevista ‘Make Algorithmic Audits As Ubiquitous As Seatbelts’ (3), la Gemma Galdón-Clavell, doctora en Polítiques de Seguretat i Tecnologia, explica sobre les conseqüències que pot portar una mala praxis i tanmateix la importància de desplegar metodologies que ens portin a tenir constància que un algoritme és neutre, respon a la funcionalitat exigida i no té preferències.
Per la seva complexitat així com la seva natura, habitualment propietària, que sol impedir-ne la transparència, entendre com funcionen, en resum, que son FRAND Fair, Reasonable and Non Discriminatory, és un objectiu que especialment des del sector públic cobra especial rellevància i que ens porta a impulsar l’auditabilitat dels algoritmes de les nostres aplicacions.
Tenim un recent marc de referència que promet impulsar aquesta necessitat: El passat 13 de març de 2024, el Parlament Europeu va aprovar la Llei d’IA.(4) que es preveu entri en vigor el mes de Maig.
La Llei d’IA introduirà normes integrals per regir l’ús de la IA a la UE, convertint-se en el primer gran bloc econòmic a regular aquesta tecnologia i tindrem en ella, per tant, la base de referència legal per impulsar les polítiques d’auditabilitat que ens donaran les garanties que com a societat necessitem.
REFERÈNCIES
(1) https://www.spainculture.be/es/region/bruselas/codigos-y-algoritmos-sentido-en-un-mundo-calculado/
(4) https://www.euronews.com/my-europe/2024/03/13/lawmakers-approve-ai-act-with-overwhelming-majority