9 de març del 2026

Algoritmes, adolescents i xarxes socials: qui protegeix realment els menors?
Els professors Marc Alegre i la Dra. Berta Aznar analitzen el funcionament dels algoritmes i els riscos digitals arran del debat sobre la prohibició de les xarxes socials per a menors de 16 anys.
El govern espanyol ha anunciat recentment la seva intenció de prohibir l’accés a les xarxes socials als menors de 16 anys, amb l’objectiu de protegir-los del contingut perillós, el discurs d’odi i la desinformació.
En aquest context, conversem amb Marc Alegre (M.A.) i la Dra. Berta Aznar (B.A.) per analitzar com funcionen realment els algoritmes de les plataformes digitals, quins riscos afronten els adolescents i quin equilibri hauria d’existir entre regulació, educació i responsabilitat de les plataformes. Des de la comunicació digital i des de la psicologia, respectivament, aporten dues perspectives complementàries sobre l’impacte de les xarxes socials en els menors.
Com funcionen realment els algoritmes de les xarxes socials quan detecten que un usuari és menor? Hi ha diferències reals o el sistema tracta igual un adolescent que un adult?
M.A.: Jo crec que l’important és entendre també què és un algoritme. En el context de les xarxes socials, és aquest conjunt de regles que decideixen quin contingut es mostra a cada usuari en funció del seu comportament i de les probabilitats que aquest usuari es quedi més estona a la xarxa social consumint contingut.
Per tant, l’algoritme observa el comportament d’un usuari: què t’agrada, què comentes, amb quines publicacions passes més estona, i a partir d’aquests càlculs preveu quin contingut farà que l’usuari es quedi més temps a la plataforma. Quan detecten que un usuari és menor, efectivament hi ha un comportament diferent. No de fons, no estructural, però sí que es poden posar alguns límits a l’algoritme.
Per exemple, en el cas de Meta, els perfils d’adolescents —usuaris entre 13 i 17 anys— inclouen una sèrie de limitacions, com la protecció davant contactes no desitjats. És a dir, que el perfil d’aquest usuari menor és més invisible a la xarxa social i és més difícil connectar-hi. També hi ha limitacions en determinats continguts sensibles.
Fins i tot hi ha recordatoris de temps d’ús perquè el menor sàpiga quant temps porta consumint aquella xarxa social i la possibilitat d’una supervisió parental, que és opcional però també hi és. Tot això és el que passa en l’entorn de Meta, que inclou Facebook i Instagram.
En el cas de Google, amb YouTube en particular, existeix YouTube Kids, una aplicació pensada per a infants d’entre 2 i 12 anys, amb una interfície més simplificada, controls parentals robustos, perfils adaptats per edat i contingut filtrat. Per tant, podem dir que, si bé l’algoritme sempre persegueix el mateix objectiu, grans plataformes com Meta o YouTube poden imposar límits quan identifiquen que l’usuari és menor.
I els menors que generen comptes falsos?
M.A.: Si el menor en aquell moment diu que té 18 anys o més, es crearà un perfil d’adult. Ara mateix no hi ha mecanismes que permetin verificar l’edat real. Aquí hi ha una llacuna. Si el perfil es camufla com a perfil d’adult, difícilment la plataforma podrà imposar límits a l’algoritme.
B.A.: És cert que existeixen aquestes eines que comenta el Marc i que podrien ser útils per detectar aquests casos d’infants o adolescents connectats i regular el contingut al qual accedeixen. Però la gran majoria d’algoritmes —i així ho mostren els estudis sobre experiències de ciberviolència en adolescents— no acaben de discriminar de manera eficaç entre adolescents i adults quan decideixen què mostrar.
Al final són sistemes que s’ajusten únicament al comportament de consum: clics, temps de visualització i interaccions. Busquen incrementar l’atenció i l’ús. Per això moltes vegades els adolescents acaben exposats a pornografia, a discursos masclistes o a diverses formes de violència digital, perquè aquests continguts generen més interacció i no hi ha un filtratge tan clar.
Això és el que fa difícil que l’entorn digital sigui segur per a menors si no s’apliquen mesures extraordinàries de protecció, com ara verificacions d’edat reals, que ara mateix està demanant el govern espanyol.
La prohibició als menors no hauria d’anar acompanyada d’una regulació a les plataformes, agències i anunciants?
B.A.: Totalment. La prohibició d’accés per edat ha d’anar de la mà d’una regulació que responsabilitzi les plataformes i els anunciants per la difusió de contingut nociu o abusiu per a la infància i l’adolescència. Això inclou sistemes de verificació d’edat robustos, criteris clars per a la retirada de contingut pornogràfic o violent, i també sancions si es permet que es propagui de manera indiscriminada aquest contingut.
És important que aquesta regulació també consideri com les plataformes incorporen recomanacions algorítmiques i publicitat dirigida que poden influir negativament en el benestar dels adolescents.
M.A.: Hi estic completament d’acord. Ara bé, no tot depèn de les agències i dels anunciants, perquè no tots els continguts que circulen a les xarxes els publiquen marques o empreses, sinó també usuaris individuals. De vegades aquests continguts poden ser més perillosos que allò que publica una marca directament o de la mà d’una agència.
Nosaltres també ens hem dotat d’un codi deontològic i d’una sèrie d’autoregulacions. Per tant, estic a favor que hi hagi una major regulació de cara a les agències i als anunciants, però sempre amb matisos. No cal demonitzar la segmentació que fan les marques ni eliminar el llenguatge persuasiu de la comunicació. Ara bé, sí que caldria prohibir determinades pràctiques abusives i protegir especialment les dades sensibles, sobretot les dels menors.
Com influeixen elements com l’scroll infinit, les notificacions o els vídeos curts en la capacitat d’autoregulació dels menors?
B.A.: Hem de tenir present que un menor que rep contínuament contingut reforçat per l’algoritme —que pot incloure continguts violents, estereotips de gènere o discursos masclistes— activa mecanismes de recompensa del cervell que impliquen respostes emocionals molt ràpides i gratificació immediata. Això genera, a mitjà termini, patrons de consum impulsiu o compulsiu que acaben desplaçant altres formes de relació molt més necessàries per als infants i adolescents: més temps d’oci, més temps amb amistats presencials, més esport o contacte amb la natura.
Aquest tipus de dinàmiques també s’associen a riscos de desregulació emocional i vulnerabilitat davant aquests missatges. Aquesta és part de la preocupació actual per la salut mental i el benestar dels menors davant el consum massiu de pantalles.
M.A.: Completament d’acord amb el que comentes, Berta. El que afegiria és que, si els algoritmes no ens eduquen, el que cal és que nosaltres eduquem els algoritmes amb visió crítica, autonomia i educació mediàtica.
A través de les xarxes socials també podem construir un entorn d’aprenentatge. Si tenim clar en què volem aprofundir, podem començar a seguir perfils que ens aportin valor i interactuar amb continguts que considerem interessants. Això és una manera d’educar l’algoritme perquè ens continuï mostrant aquest tipus de continguts.
De vegades també cal bloquejar comptes o indicar a l’algoritme que un contingut no ens interessa. Moltes persones també aprenen i gaudeixen gràcies a les xarxes socials, als blogs o als fòrums, però no hi ha dubte que aquesta autonomia i aquesta educació mediàtica són necessàries.
B.A.: Estic molt d’acord amb el que comentes sobre el paper de l’educació digital i mediàtica. El que passa és que l’entorn digital, tal com està configurat ara mateix, continua sent un espai amb molts riscos i poques mesures de protecció. Per això es plantegen també mesures més restrictives de protecció dels infants.
Ara bé, posar barreres sense educar ni dialogar amb els adolescents és absolutament insuficient.
M.A.: Sobretot perquè tampoc no els podem tenir en una bombolla aïllada. Si no, quan facin 17 anys i ja puguin accedir legalment a les xarxes socials, què passarà si no han rebut aquesta educació? Per això sóc més partidari de prohibicions concretes i no tan generals com la que s’està plantejant.
Creieu que una prohibició així pot tenir efectes?
M.A.: Quan entrem en el tema de la prohibició, altres països ja ho han plantejat, com Austràlia o França. Fins i tot el CEO de Meta, Mark Zuckerberg, ha suggerit que els mecanismes de verificació d’edat potser haurien de dependre dels dispositius o dels sistemes operatius, com Apple o Google. Això també genera preocupacions sobre privacitat, llibertat d’expressió i vigilància digital.
També hi ha una altra qüestió: quan parlem de prohibir xarxes socials, quines entren dins aquesta definició i quines no? Plataformes de missatgeria com WhatsApp o Telegram, plataformes de vídeo com YouTube, retransmissions com Twitch o mons virtuals com Roblox. A més, els adolescents sovint troben altres espais menys regulats on pot haver-hi encara més riscos.
B.A.: La prohibició per si sola no ho resol tot. Però sí que pot establir un marc protector que permeti que l’accés a aquests espais es faci amb més maduresa. Ara bé, ha d’anar acompanyada d’educació digital, educació afectiva i relacional, comunicació amb les famílies i treball als centres educatius.
És important que els adolescents puguin fer un bon ús de l’espai digital i entendre millor els continguts que els arriben i com gestionar-los.
M.A.: El meu dubte també és fins a quin punt les xarxes socials són un mirall del que passa a la societat. Problemes com l’assetjament, la misogínia o el racisme ja existeixen fora de les xarxes. Les xarxes els poden amplificar, però potser la prohibició no resol estructuralment el problema de fons.
Quin equilibri hauria d’existir entre regulació, educació i responsabilitat de les plataformes perquè els menors puguin créixer en un entorn digital més saludable?
B.A.: Crec que l’equilibri ha de ser integral i amb un enfocament preventiu. Des de la regulació, cal establir límits clars, com la verificació real d’edat, i responsabilitzar les plataformes dels continguts nocius o de situacions abusives que s’hi produeixen.
També és fonamental fomentar el pensament crític dels adolescents. Aquest pensament crític no es genera sol: necessita acompanyament adult, comunicació transparent amb les famílies i formació per als docents.
Només així els adolescents podran entendre els riscos de l’entorn digital i aprendre a gestionar relacions saludables tant dins com fora d’aquest espai.
- Compartir:



