
Dr. Josep Maria Carmona Leyva
Project Manager
Corporació Catalana de Mitjans Audiovisuals
Durant dècades, la intel·ligència artificial (IA) semblava un camp d’interès acadèmic o científic, però lluny de les necessitats de moltes empreses. En aplicacions de mercat el seu ús estava principalment limitat a entorns molt controlats o amb una estreta supervisió humana. Això feia que, en molts casos, no resultés pràctic per a gran part de l’àmbit empresarial.
En la darrera dècada tot sembla haver canviat: l’interès per la IA s’ha desvetllat de forma espectacular. No hi ha dia que no se senti parlar d’IA als mitjans de comunicació, al carrer, a la feina, etc.; dels múltiples usos donats a la IA, de vegades amb un sobreús del terme “IA”. Però independentment del possible sobreús del terme, és evident que alguna cosa ha canviat perquè aquest terme, que fa uns anys semblava cosa només de l’àmbit científic o acadèmic, ara tingui infinitat de potencials aplicacions.
Sembla bastant clar que la gran precisió aconseguida pels sistemes d’IA en els darrers anys està darrere d’aquest gran salt en les seves possibilitats d’ús. Tasques que anys enrere necessitaven la constant correcció d’un humà, avui en dia poden necessitar només intervencions puntuals o inclús permetre’s l’absència total d’intervenció. Això ha fet que, des del punt de vista de negoci, per a les empreses la IA hagi passat a ser un àmbit interessant que pot ajudar a millorar els seus processos interns i la seva productivitat.
Però tota tecnologia acostuma a tenir una part positiva i una de negativa, i la IA no podia ser menys. Darrere dels grans avenços i l’augment de l’aplicabilitat de la IA han emergit algunes preocupacions relacionades amb temes d’opacitat, privacitat, biaixos, deepfakes, etc. que l’aparició de ChatGPT ha fet encara més evidents. Tot i que per al gran públic ha estat el ChatGPT el que ha donat a conèixer aquesta problemàtica, la preocupació per temes relacionats amb l’ètica a la IA va començar molt abans, amb l’ús de dades provinents de múltiples fonts. L’ús massiu de dades va fer que emergís la preocupació pels biaixos que aquestes dades contenien i que els algoritmes de machine learning (ML) encara amplificaven més. L’ús d’algoritmes de deep learning (DL) en àmbits com la justícia, la banca o la medicina van posar en relleu la seva poca transparència respecte a com i per què prenen determinades decisions. Però la cosa no acaba aquí: pel que fa a l’explicabilitat, es dona una paradoxa que fa que, en general, com més precisió aconsegueix un algoritme, menys transparent és, de manera que el DL acostuma a aconseguir més precisió que el ML, però és menys explicable la manera com ha pres les decisions, fins al punt que en molts casos es comporten com caixes negres que impossibiliten saber com o per què s’han pres determinades decisions.
És per això que, ara més que mai, la regulació de la IA s’ha convertit en un motiu de preocupació per a governs, empreses, particulars, etc. Fins i tot la mateixa Comissió Europea ja fa anys que treballa en el desenvolupament d’un marc regulador de la IA que garanteixi que els europeus puguin tenir-hi més confiança.
La CCMA, com a empresa pertanyent al sector públic, no queda fora d’aquesta preocupació. Molt al contrari: a tota aquesta preocupació s’hi afegeix la responsabilitat que té com a mitjà públic, tant des del punt de vista de responsabilitat social, transparència, sostenibilitat, etc., com des del punt de vista de la credibilitat i el prestigi. Actualment, la CCMA disposa de sistemes de recomanació de continguts per a usuaris, sistemes de reconeixement facial, reconeixement de logos per classificar i cercar els seus continguts, sistemes de transcripció d’àudio a text o sistema de subtitulació semiautomàtic. A més, també s’està treballant en el possible ús de sistemes generadors de resum automàtic en català, subtitulació totalment automàtica, detecció de gènere, detecció de temes d’objectius de desenvolupament sostenible en els seus continguts, generació automàtica d’informació meteorològica mitjançant avatars, etc.
Totes aquestes tasques requereixen algoritmes de ML i DL com eXtreme Gradient Boosting (XGBoost), Light Gradient-Boosting Machine (LightGBM), Hidden Markov Models (HMM), Convolutional Neural Networks (CNN), Transformers, etc., que poden generar o amplificar biaixos a l’hora de prendre decisions o de generar nous continguts. Tot i que, en la majoria dels casos, darrere l’ús d’aquests algoritmes trobem humans supervisant-ne els resultats, això no sempre és així. El cas més clar és el dels recomanadors de continguts per a usuaris. És evident que un humà no analitzarà els milers de recomanacions que es generen diàriament; és més, encara que un humà volgués tenir algunes pistes dels criteris seguits per l’algoritme per generar les recomanacions, en molts casos no seria possible donada la mateixa opacitat de l’algoritme, cosa que complica saber si aquestes recomanacions estan en línia amb els objectius i principis de la funció de la CCMA com a mitjà públic. Aquesta manca de transparència dels algoritmes de recomanació planteja un gran repte als mitjans públics respecte a la seva independència, responsabilitat, justícia, etc.
La recomanació no és l’únic repte que ens trobem els mitjans públics amb la IA. Els biaixos introduïts o amplificats pels sistemes de ML/DL també poden generar problemàtiques en l’àmbit de documentació en la selecció de material audiovisual a partir de cerques o la classificació automàtica durant la producció de programes. Els algoritmes que han estat entrenats amb dades externes a la CCMA poden contenir biaixos de gènere, ètnia, ideologia, etc. que obliguen a ser constantment supervisats per un humà. Però els entrenats amb dades internes de la CCMA tampoc estan lliures de poder contenir biaixos si aquestes dades no han estat seleccionades seguint un protocol definit correctament.
La supervisió duta a terme per la CCMA per minimitzar els biaixos dels seus continguts tindrà tot el sentit sempre que es tinguin en compte els aspectes discriminatoris que podrien generar les mateixes eines d’IA utilitzades tant en el procés de producció de continguts com en la resta de processos interns.
És per això que els mitjans públics tenen al davant el gran repte de fer servir la IA respectant els principis que donen sentit al fet de ser un servei públic, que obligarà a adquirir compromisos entre l’ús de sistemes d’IA d’alt rendiment poc transparents o sistemes de menys rendiment però més transparents. Al mateix temps, l’adopció d’aquest compromís no haurà de suposar una pèrdua de competitivitat respecte a la competència.