Aquest divendres 15 de maig, el papa Lleó XIV firma la seva primera encíclica amb el nom de Magnifica humanitas (“Magnífica humanitat”) fent-la coincidir amb la mateixa data en què Lleó XIII va donar a conèixer Rerum novarum (1891), segons l’Agència Catòlica de Notícies (KNA) d’Alemanya.
Des de l’inici del pontificat, el Sant Pare ha anat apuntant l’interès pel desenvolupament i l’extensió de la IA i també ha seguit de prop seminaris com el que la Pontifícia Acadèmia de Ciències Socials va organitzar l’octubre passat, amb cinquanta experts mundials que van intercanviar experiències per promoure un ús responsable, ètic i humanístic de la tecnologia digital. Tot això, juntament amb la nota Antiqua et nova (signada el gener del 2025 pels prefectes i cardenals Víctor Manuel Fernández i José Tolentino de Mendonça), pren forma en la primera encíclica del papa Lleó, que es va llicenciar en Matemàtiques a la Universitat de Villanova (1977) abans d’ordenar-se sacerdot, una formació que li permet abordar la qüestió de la IA des de les arrels, incloent els aspectes més tècnics i científics.
“La intel·ligència artificial no és només un ‘software’: transformarà la manera de treballar, de relacionar-nos i fins i tot pot afectar el desplegament de les capacitats humanes”
“Quan va escollir el nom de Lleó XIV, va voler recollir el mestratge de Lleó XIII, autor de la famosa Rerum novarum, que va ser la gran resposta de l’Església davant els canvis socials provocats per la industrialització, la urbanització i el naixement de la societat capitalista moderna. Ara també vivim un canvi profundament transformador, comparable al del segle XIX, però marcat per la tecnologia. La intel·ligència artificial no és només un software: transformarà la manera de treballar, de relacionar-nos i fins i tot pot afectar el desplegament de les capacitats humanes. Per això és tan important tornar a posar al centre la dignitat de la persona. Quan el Papa parla de custodiar veus i rostres humans, ens està recordant precisament això: que la tecnologia ha d’estar al servei de l’ésser humà, i no a l’inrevés”, sosté el president de la Fundació Blanquerna, Josep Maria Carbonell.
VETLLAR PERQUÈ NO S’EIXAMPLIN LES DESIGUALTATS
“La IA és més que un instrument, perquè aporta un nou entorn i ens porta a una nova manera d’entendre la cultura i l’ésser humà”, va afirmar Joan Costa a la Jornada de Filosofia “IA i la redefinició de la persona”, de l’Ateneu Universitari Sant Pacià. “Tenim un sistema tecnocràtic amb una lògica pròpia, que ja s’està independitzant dels éssers humans”, va sostenir Javier Romero, de la Universitat de Salamanca, en la mateixa jornada. El Dr. Romero va abundar en els riscos tecnocràtics de la IA i en la necessitat del sentit del límit en aquest àmbit. Sense oblidar que “la IA no té una agenda moral, però darrere les empreses que desenvolupen els algoritmes sí que hi ha persones amb uns valors determinats”.
En efecte, un dels valors que orienta el desenvolupament de la IA és la rendibilitat econòmica i el lucre, per davant d’“una visió de futur que tingui en compte el bé comú”, com demana el Papa. D’aquesta qüestió, en parla a bastament la periodista i enginyera mecànica Karen Hao, al llibre El imperio de la IA, on informa sobre Open AI (propietari de ChatGPT), la indústria de la IA i el seu impacte global. Són molts els experts i també el Papa els que alerten del risc de l’acumulació de poder tecnològic en poques mans, per la retenció de riquesa i la imposició d’estils de vida. “Havíem cregut que la tecnologia permetia el mite de la desintermediació i saltar-nos els mediadors clàssics (partits, sindicats, diaris…), però la mediació no ha desaparegut, al contrari, està més privatitzada i monopolitzada que mai a través dels grans oligopolis de la tecnologia. I, precisament, en un context de crisi dels mediadors clàssics, s’esdevé una intermediació oculta que no és controlada per la ciutadania”, va indicar Marc Andreu, periodista i historiador, en la Jornada de formació de l’Acció Catòlica Obrera (ACO) “La digitalització, una oportunitat per fer el bé?”, que es va fer el 14 de març passat.
“La IA no té una agenda moral, però darrere les empreses que desenvolupen els algoritmes sí que hi ha persones amb uns valors determinats”
Un altre aspecte que intranquil·litza és com la IA pot afectar i afecta la nova configuració del mapa laboral. Si bé hi ha precedents en les revolucions industrials que s’han viscut, la particularitat ara és la velocitat dels canvis. “Un 60% dels treballadors europeus ja estan afectats per la gestió algorítmica, sovint amb una pretensió de control com a eina disciplinària i per a l’increment de la productivitat. Els algoritmes, caracteritzats per l’opacitat, ja estan condicionant acomiadaments, l’assignació de torns o els criteris de selecció de currículums. Si bé hi ha un marc normatiu europeu [conegut com a AI Act] que obre una escletxa a regular-ho per la via de garantir el control humà dels processos, les grans tecnològiques nord-americanes són molt bel·ligerants i falta que la ciutadania organitzada ho entomi, en particular, els sindicats en la negociació col·lectiva”, va alertar Andreu, actualment a l’executiva de CCOO de Catalunya.
La IA també juga un paper en el fenomen de la desinformació, com indica el papa Lleó: “Els sistemes que fan passar una probabilitat estadística per coneixement ens ofereixen, en realitat, com a molt, aproximacions a la veritat, que a vegades són autèntiques ‘al·lucinacions’. La manca de verificació de les fonts, juntament amb la crisi del periodisme de camp, pot afavorir un terreny encara més fèrtil per a la desinformació.” Aquesta desinformació habitual en àmbits polítics o conflictes bèl·lics, està prenent una nova dimensió, per exemple, en l’àmbit dels drets socials: “La desinformació és una estratègia discursiva amb informació falsa per atacar algú. Hi ha col·lectius que són atacats a nivell estructural i que ja de per si són discriminats en la societat: dones (masclisme), homosexuals (homofòbia), migrants (racisme). La desinformació ha existit sempre, però s’ha ampliat l’altaveu amb internet i les xarxes socials. S’ha fet més viral, arriba més ràpid a tot el món i amb tecnologies com la IA i els algoritmes s’ha fet més sofisticada, és més difícil saber si és veritat o mentida”, alerta Marta Meneu, periodista i formadora de Learn to Check.
“Els algoritmes, caracteritzats per l’opacitat, ja estan condicionant acomiadaments, l’assignació de torns o els criteris de selecció de currículums”
Aquesta entitat ha publicat el dossier “Els drets socials en temps de desinformació” on s’analitza com les notícies falses i les narratives manipulades no només condueixen a malentesos, sinó que poden generar estigmatització, exclusió i dificultats d’accés a serveis bàsics com la salut, l’educació, l’habitatge i el treball. Un fenomen que afecta sobretot persones i col·lectius vulnerables, i interfereix en la tasca de les entitats socials, minvant la seva credibilitat i el seu impacte. I també proposen el mètode PANTERA per verificar les informacions i que es pot trobar a YouTube.
DESCOLONITZAR LA TECNOLOGIA
El Mobile World Congress té un contra-congrés, el Mobile Social Congress, que se celebra simultàniament i on s’apel·la a un altre tipus de tecnologia que allibera, que fa crítics i que atorga poder a la ciutadania. El lema del congrés d’enguany ha estat “Descolonitzem la tecnologia”: “Hem d’entendre tots els impactes negatius que hi ha a les cadenes de valor de l’electrònica i que s’externalitzen a països sobretot del Sud global que tenen un passat colonial: la mineria des d’on s’extreuen les matèries primeres per fabricar els nostres mòbils o l’explotació en països asiàtics en la fase de fabricació. Les dinàmiques neocolonials impregnen aquestes relacions Nord-Sud que són desiguals i injustes”, aclareix Claudia Bosch, coordinadora de la campanya Electrònica Justa, de Setem Catalunya.
Una de les xerrades que es van fer al congrés va ser “Com fem una IA antiracista, descolonial i feminista?”, en què va participar Youssef M. Ouled, de l’entitat AlgoRace que es dedica a fer recerca sobre com algunes IA que ja estan funcionant, per exemple a l’hora de prestar serveis públics, reprodueixen biaixos de gènere i racials que es donen perquè els tenen els programadors que dissenyen els algoritmes. Sobre aquesta qüestió de la parcialitat, també en parla el papa Lleó: “La manca de transparència en el disseny dels algoritmes, juntament amb la representació social inadequada de les dades, tendeix a mantenir-nos atrapats en xarxes que manipulen els nostres pensaments i perpetuen i aprofundeixen les desigualtats i les injustícies socials existents.”
“La desinformació amb tecnologies com la IA i els algoritmes s’ha fet més sofisticada, és més difícil saber si és veritat o mentida”
La matèria primera de la IA són les dades que li subministrem, atès que un percentatge elevat de la nostra activitat està monitoritzada digitalment. Aquesta qüestió es va abordar al Congrés de Sobirania Tecnològica (Sobtec), amb el títol “Qui controla la tecnologia que governa les nostres vides?”. “Vam parlar de quines eines podem utilitzar les usuàries perquè les nostres dades estiguin més segures, ja que moltes som activistes de drets humans i medi ambient i cada cop hi ha més repressió a tot Europa; de com es vinculen les grans empreses del big-tech amb el genocidi del poble palestí o com utilitzar la tecnologia de dades i el programari lliure per a processos polítics empoderadors de la ciutadania”, comparteix Bosch.
Una altra derivada és l’impacte ecològic de la implantació de grans centres de dades, amb elevats consums energètics i d’aigua per refrigerar-los. En particular, els governs català i espanyol volen convèncer la Comissió Europea d’instal·lar a Móra la Nova una de les cinc gigafactories de dades que es faran: “Ens preocupa que es vulgui fer aquesta inversió pública immensa per desplegar una infraestructura depredadora de recursos energètics i hídrics, que no ens poden permetre en un context de crisi climàtica, amb l’argument que es crearan llocs de treball que, en realitat, són ínfims i de molt baixa qualitat. Ens hem de qüestionar per què s’utilitzen aquests megacentres de dades i ser crítics”, remarca Bosch.
En la jornada de l’ACO també va participar Xavi Casanovas, professor a la Càtedra d’Ètica de l’Institut Químic de Sarrià-URL, que va aportar tres exemples positius i negatius de l’ús de la IA. En el primer cas, va recordar que el Premi Nobel de Química de l’any 2024 va desenvolupar a través de la IA el plegament de proteïnes, molt útil per a la investigació farmacèutica; que la IA permet diagnosticar molt acuradament el càncer de pell per la seva capacitat d’anàlisi d’imatges i traçar patrons; o que la IA pot ajudar a millorar la mobilitat urbana gràcies a l’anàlisi dels patrons de trànsit. En canvi, la IA ja està demostrant la seva letalitat en la guerra sense intervenció humana, també s’ha donat algun cas de suïcidi incentivat per xatbots o, en l’educació, on es revela eficaç en la resolució de problemes, però sense que l’humà aprengui com es fa.
“Hem de conèixer les tecnologies que utilitzem, com es dissenyen els algoritmes, com funcionen les xarxes socials privatives i quins impactes tenen, i que hi ha alternatives”
El matemàtic i filòsof va apuntar tres transformacions ontològiques quan incorporem la IA: d’una banda, es passa d’un model de comprensió a un model de predictibilitat, un contrast respecte de la Il·lustració que pretenia conèixer les lleis del món. De l’altra, el pas de la importància de la veritat a la versemblança, un fet que contribueix a la confusió per la dificultat de discernir el que és veritat del que no ho és. I, finalment, l’antropomorfització de la tecnologia, amb robots que tenen aparença humana i converses amb la IA amb respostes molt humanes, un fet que aprofundeix la confusió.
ALFABETITZACIÓ DIGITAL
Si baixem a la quotidianitat de les persones comunes que miren de conviure amb la tecnologia, des d’entitats com Setem proposen ser-ne més conscients i crítics en aquest ús. Un dels mitjans seria l’alfabetització digital, com s’hi refereix el papa Lleó XIV, “juntament amb una formació humanística i cultural”: “L’alfabetització digital és clau, hem de conèixer les tecnologies que utilitzem, com es dissenyen els algoritmes, com funcionen les xarxes socials privatives i quins impactes tenen, i que hi ha alternatives i xarxes socials no privatives que no estan dissenyades per generar aquesta addicció. I això cada cop ho serà més perquè la tecnologia travessa la nostra vida”, remarca Bosch.
En efecte, progressivament les institucions públiques s’estan involucrant finançant projectes per formar col·lectius específics més vulnerables a la desinformació com joves i gent gran i s’estan creant observatoris. Des de Learn to Check consideren que “l’alfabetització mediàtica hauria de ser una competència bàsica. Contra la desinformació hi ha diferents estratègies. D’una banda, hi ha el moviment de fact-checkers, és a dir, periodistes que es dediquen a verificar la informació que publiquen altres professionals; i, de l’altra, l’alfabetització mediàtica faria que tota la ciutadania tingués unes competències bàsiques per navegar a internet”, subratlla Meneu. De fet, aquesta entitat ofereix tallers pràctics i recursos per a diferents grups en instituts, escoles o centres cívics.
Així mateix, a Catalunya ja hi ha models i projectes alternatius basats en la sobirania tecnològica, la sostenibilitat i el respecte pels drets humans: “Pel que fa al programari, tenim moltes cooperatives tecnològiques que ofereixen eines de programari lliure. Tenim proveïdors com Pangea o guifi.net que fan infraestructures d’internet que utilitzen energia renovable. Pel que fa al consum, recomanem allargar la vida útil dels nostres dispositius al màxim i abans de comprar-ne un de nou pensar si el puc reparar, el puc reutilitzar o puc fer servir una de les quinze biblioteques de les coses que hi ha a Catalunya”, detalla Bosch, entre d’altres propostes que es poden trobar a la pàgina web electronicajusta.cat.
“Caldria recuperar l’agència humana i introduir debats democràtics com la regulació per edats o quines capacitats humanes deleguem en les màquines”
De la seva banda, Xavi Casanovas apunta diferents possibles actuacions: “En primer lloc, cal vigilar la fascinació i apostar pel principi de precaució. En un context capitalista, les aplicacions surten al mercat sense cap mena de control previ, a diferència dels productes alimentaris o farmacèutics. També caldria no introduir tecnologia acríticament en l’educació, quan en les coses bàsiques no cal fer gaires invents. En segon lloc, hauríem de vetllar per la regulació per edats, com ja ens passa amb el consum d’alcohol o la conducció de vehicles. En tercer lloc, caldria recuperar l’agència humana i introduir debats democràtics com la regulació per edats o quines capacitats humanes deleguem en les màquines. Per tal que això es produeixi cal parar i sostreure’s a l’acceleració que introdueix la tecnologia. I, finalment, fer-nos conscients que hi ha una dependència creada darrere el consum dels telèfons intel·ligents amb uns interessos capitalistes que busquen tenir-nos enganxats el màxim de temps possible per mostrar-nos anuncis i captar dades personals i preferències.” Sense perdre de vista el subratllat de Prevost: “La qüestió que ens importa, però, no és el que aconsegueix o aconseguirà fer la màquina, sinó què podem o podrem fer nosaltres, creixent en humanitat i coneixement, amb un ús savi d’instruments tan poderosos al nostre servei.”

