Un dels grans misteris del món digital és si realment hi ha algú que s'hagi llegit de manera sistemàtica els termes i les condicions d'ús de plataformes i serveis digitals, xarxes socials o, més recentment, ecosistemes d'intel·ligència artificial. I, encara que pugui semblar graciós, en realitat és perillós no fer-ho, tot i que en molts casos serveixi de poc perquè el comú dels mortals probablement no podria comprendre en tota la seva extensió determinats límits ni pràctiques que l'afectaran directament com a usuari d'aquests serveis.
Tanmateix, de sobres és sabut per gairebé qualsevol usuari que tot el que comparteixi a través d'internet quedarà inserit en una espècie d''esfera pública' que li farà perdre el control no ja de la seva propietat, sinó de les derivades que se'n puguin succeir. No en va, qualsevol contingut publicat per un usuari a les xarxes socials pot ser replicat per altres usuaris, modificat, alterat, tergiversat o, simplement, descarregat per a usos particulars, lícits o no, que desconeixerem en la majoria de les ocasions. Veure-ho així fa vertigen, però no sempre hi reparem.
"Moltes vegades no ens adonem de la cessió de drets que atorguem quan fem ús d'un determinat servei digital. Només veiem el que ens aporta, però no a què ens estem comprometent", reconeix Silvia Martínez, professora col·laboradora dels Estudis de Ciències de la Informació i de la Comunicació de la Universitat Oberta de Catalunya (UOC) i investigadora del grup GAME.
Per si tot això fos poc, la irrupció de la intel·ligència artificial (IA) en les nostres vides, i en tots els àmbits d'aquesta, implica afegir una capa addicional de risc a l'activitat digital dels usuaris. No tan sols pel fet que aquests sistemes poden alterar imatges i vídeos de persones reals amb una facilitat sorprenent i per part de qualsevol, sinó perquè aquestes imatges i vídeos es converteixen, al seu torn, en material per a l'entrenament i la millora d'aquests sistemes. "Imagina que ensenyes a un nen a reconèixer una cara: li mostres diverses fotos de la mateixa persona, des de diferents angles, amb diferents expressions. A poc a poc, la comença a identificar. Perquè les intel·ligències artificials aprenen de manera semblant: per entrenar-les amb imatges personals, se'ls dona una col·lecció de fotos o vídeos en què apareix sempre la mateixa persona. Com més imatges tingui, millor n'aprendrà els trets: la forma dels ulls, la curvatura del somriure, el to de pell, la manera en què s'arruguen les parpelles en riure…", explica Antonio Pita, professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC.
La ciència darrere de la IA
Encara que sembli simple, darrere d'aquest procés hi ha una complexitat tècnica que evidencia la naturalesa i el potencial d'un model extens de llenguatge (LLM), o sigui, el 'cervell' que hi ha darrere d'una IA. "Darrere d'aquest procés hi ha xarxes neuronals profundes, una tecnologia inspirada, de manera molt simplificada, en com funciona el cervell humà", afegeix el professor, que destaca que "aquestes xarxes processen milions de dades visuals i aprenen a representar una cara com una espècie d''empremta matemàtica' molt precisa, però invisible a l'ull humà". Simplificant: quan una IA aprèn a identificar un rostre humà, també s'empodera per poder crear, des d'aquell moment, "noves imatges hiperrealistes a partir del que ha après", apunta. I és aquí on neixen els deepfakes i els mems que envaeixen les xarxes socials. Alguns, amb la simple intenció de fer riure; uns altres, amb la de manipular, enganyar i fins i tot estafar tercers.
On acaba l'humor i comença l'estafa
Hi ha una clara diferència entre l'ús que fem els mateixos usuaris de les nostres imatges per 'jugar' amb la intel·ligència artificial i el que en facin tercers no autoritzats amb interessos no sempre lícits. En tots dos casos, però, la nostra informació queda a mercè del propietari del servei o la plataforma, que "no sabem què farà després amb el que estem pujant a internet, en uns casos per no haver consultat les bases o condicions que acceptem i en d'altres perquè, encara que es llegeixin, el llenguatge emprat en dificulta la comprensió", alerta la professora Silvia Martínez.
Recentment s'ha filtrat que Meta, que es reserva el dret d'utilitzar els continguts que els usuaris comparteixen a Facebook o Instagram per entrenar els seus models d'IA, podria plantejar accedir a totes les fotografies que emmagatzemin els usuaris en els seus dispositius, fins i tot les que no han compartit a les xarxes socials, amb aquesta mateixa finalitat. Seria una cosa opcional a la qual l'usuari podria negar-se explícitament, però evidencia la voracitat d'aquestes plataformes a l'hora de buscar nous materials amb què millorar la seva tecnologia, en el marc d'una acarnissada carrera per dominar un sector que promet generar un negoci que podria rondar els 300.000 milions de dòlars ja el 2025, segons diversos estudis independents, entre ells els de Mordor Intelligence i Fortune Business Insights.
Tot i que aquesta proposta pugui semblar atractiva, a la Unió Europea seria difícil d'aplicar. "A Europa, l'ús d'imatges personals per entrenar sistemes d'IA està subjecte a normes estrictes de protecció de dades, com el RGPD. Qualsevol ús de dades personals, com ara imatges que publica un usuari, requereix una base jurídica vàlida com el consentiment de l'interès legítim", destaca Eduard Blasi, professor col·laborador dels Estudis de Dret i Ciència Políticade la UOC.
En aquest sentit, el nou Reglament d'intel·ligència artificial (AI Act) vol regular els usos d'aquesta tecnologia a la UE i "introdueix obligacions addicionals quan es fan servir dades personals en sistemes d'alt risc", afegeix l'expert, que subratlla les diferències de l'enfocament europeu respecte al nord-americà, en què predomina "un model més flexible, basat en l'autoregulació empresarial i el principi del fair use", o el xinès, que "adopta un enfocament molt més centralitzat i orientat al control estatal", i que "permet l'ús massiu de dades, incloent-hi les biomètriques, per part de l'Estat i grans empreses tecnològiques, amb una protecció més feble dels drets individuals respecte de l'interès públic o la seguretat nacional", apunta.
Els riscos de la IA
Quan despunta qualsevol tecnologia, els malastrucs s'afanyen a propagar-ne els riscos inherents. Però el cas de la intel·ligència artificial és especialment sensible, ateses les capacitats que té aquesta tecnologia. "Els riscos que planteja aquesta tecnologia no són hipotètics ni llunyans: ja són aquí, i afecten tant empreses com persones corrents. Un dels més greus és el robatori d'identitat: amb només unes quantes imatges públiques, una foto de perfil o un vídeo a les xarxes, una IA pot generar un vídeo hiperrealista en què sembla que parlis, miris a càmera o diguis coses que mai no has dit", explica el professor Antonio Pita. I aquest ni tan sols és el risc més important. "En molts casos, la víctima no arriba ni a saber que la seva imatge ha estat utilitzada fins que el mal ja està fet. I tot això afecta no solament grans figures, sinó també persones corrents que, sense saber-ho, poden veure la seva imatge utilitzada en contextos falsos, que danyen la seva reputació i confiança", adverteix, abans de subratllar que "literalment, algú pot 'ser tu' en un vídeo sense que ho sàpigues".
En aquest sentit, no resulta senzill defensar-se d'aquestes pràctiques. Com a màxim, els usuaris poden vetar a les plataformes l'ús de les seves fotos i vídeos per entrenar als seus models d'IA. Però el veritable risc es troba en el que poden fer altres usuaris amb aquestes fotos i vídeos compartits. I aquí l'únic veto és no fer servir aquestes plataformes, i quedar-nos aïllats d'un ecosistema on es mou la vida digital, encara que el professor Eduard Blasi subratlla que "el fet que compartim lliurement una imatge a les xarxes socials no significa que perdem tots els nostres drets sobre aquesta", ja que "la nostra imatge segueix protegida pel dret fonamental a la pròpia imatge, i també per la normativa de protecció de dades personals", que "reconeix al titular de la dada un poder de control sobre la seva informació; és a dir, decidir, per exemple, qui la pot tractar, per a quines finalitats i durant quant de temps", explica.
Malgrat això, sembla que el paper del legislador no sempre serà capaç de respondre a aquests reptes. "Per regular, primer cal tenir en compte que la tecnologia no és en si mateixa bona o dolenta; depèn de com i per a què s'utilitzi. I, en segon lloc, evoluciona molt de pressa i opera en un entorn globalitzat en què es produeixen infinitat d'interaccions al dia, cosa que també en dificulta el control", reconeix Silvia Martínez. Crear un deepfake d'una altra persona ja està més o menys prohibit, en funció de la intencionalitat que tingui el vídeo, però això no evita que continuem veient fotos i vídeos manipulats, a vegades amb la sorprenent connivència per omissió de les plataformes, que segueixen permetent anuncis d'estafes que utilitzen persones reals donant discursos falsos per vendre un producte o servei.
"Encara que la majoria de les imatges i els vídeos generats per IA són detectables perquè els seus creadors no són professionals, les imatges o els vídeos generats per professionals són pràcticament indistingibles de la realitat", adverteix Antonio Pita. Això, unit al fet que l'alfabetització digital de gran part de la població deixa molt a desitjar, fa que aquests continguts surtin a compte per a qui els crea. "Un exemple impactant: fa uns mesos, a Vigo (Galícia), una empresa va patir una estafa sofisticada. Uns ciberdelinqüents van convocar un treballador a una videotrucada aparentment amb el seu CEO, però era una IA imitant la veu i els gestos del director. L'empleat va transferir 100.000?euros, pensant que era una ordre real", relata el professor, que afegeix que "sembla ciència-ficció; però, per desgràcia, és molt real". I aquesta és la realitat en què vivim, a vegades sense adonar-nos-en.
Malgrat tot, hi ha una petita finestra a l'esperança: les plataformes ja estan etiquetant el contingut generat per IA per alertar els usuaris, i comencen a guanyar terreny algoritmes i serveis capaços d'analitzar imatges i vídeos per determinar si han estat manipulats. Entre això i "el sentit comú, el pensament crític i el coneixement", com aconsella el professor Pita, els usuaris ja tenim eines per defensar-nos de la cara negativa d'una tecnologia cridada a facilitar les nostres vides en tots els àmbits imaginables.