Para la redacción de este artículo, hemos contado con la colaboración de Iris Roch, especialista en acompañamiento de familias y comunidad educativa sobre el uso de pantallas en infancia y adolescencia del programa Café y Social Media, de la cooperativa CIPAIS (Centro de Intervención Psicológica, Análisis e integración Social), organización con la cual tenemos un acuerdo de intercooperación.
En los últimos meses, han proliferado noticias y anuncios televisivos en los que Instagram, parte del grupo Meta, asegura haber considerado las preocupaciones de las familias y revisado sus políticas de protección de datos con menores. Esto ha dado lugar a una nueva iniciativa: las cuentas de adolescentes. Ahora bien, ¿qué realidad se esconde detrás de esta estrategia?
Hay que tener en cuenta que gran parte de las medidas adoptadas por Meta son fruto de un compromiso legal. Según el Artículo 8 del Reglamento General de Protección de Datos Europeo (RGPD), los progenitores o tutores legales tienen que autorizar el acceso de un menor de dieciséis años a determinados servicios digitales. En este sentido, una de las novedades de la cuenta de adolescentes de Instagram es que los menores de esta edad tienen que solicitar permiso para modificar la configuración de la cuenta.
Esta medida responde, en parte, a las demandas de movimientos familiares e instituciones, a pesar de que en algunos marcos legales, como la Ley Orgánica 3/2018 de Protección de Datos Personales y Garantía de los Derechos Digitales, la edad para dar consentimiento se fija en catorce años.
Además, el Artículo 11 del RGPD establece la obligación de adaptar el lenguaje de los textos legales a la madurez de los usuarios. En este caso, Meta delega la responsabilidad en los progenitores, evitando el esfuerzo de una comunicación realmente accesible para los adolescentes.
Finalmente, el gobierno español aprobó el 2024 el anteproyecto de ley de protección del menor en entornos digitales, que obliga a los fabricantes de dispositivos a incluir un control parental gratuito y restringe el acceso a plataformas que utilizan mecanismos de recompensa aleatorios, como muchos videojuegos populares entre menores. Habrá que ver cómo se materializa esta regulación en la práctica.
Gestión del riesgo y moderación de contenidos
Más allá del marco legal, una cuestión clave es cómo Instagram gestiona los riesgos psicosociales asociados al uso de la plataforma por parte de los adolescentes.
Con el auge de la inteligencia artificial y los algoritmos, se podría pensar que la moderación de contenidos está bajo control. Sin embargo, todavía hay una parte esencial que solo puede valorar un ser humano. A pesar de haber eliminado la moderación de contenido pre-publicación, Instagram la ha mantenido para las cuentas de adolescentes. Pero, ¿es suficiente para evitar la exposición a contenidos nocivos?
Los datos sugieren que el número de moderadores es insuficiente para gestionar el volumen de información en la red, y la carga emocional que implica esta tarea puede tener consecuencias devastadoras. Un ejemplo es el caso de un trabajador de Meta que ganó un juicio por las secuelas psicológicas derivadas de su trabajo.
Otro ejemplo claro sobre los riesgos derivados de los contenidos que circulan a través de las redes sociales que consultan los y las jóvenes, es el que pone sobre la mesa Adolescence.
Falsa seguridad y responsabilidad familiar
Los profesionales que trabajan con menores alertan del peligro de la falsa seguridad que pueden generar estas medidas en las familias. Según la Asociación Española de Pediatría, confiar ciegamente en la protección anunciada por estas plataformas puede comportar riesgos inesperados.
Ante esto, surgen movimientos familiares que promueven el atraso en la edad de adquisición del primer móvil y la aplicación de restricciones en el uso en centros educativos (Adolescència lliure de mòbils y Aixeca el cap, entre otros). La necesidad de alternativas que limiten el acceso a contenidos inadecuados y que combatan los patrones de conducta adictiva es una demanda creciente en la sociedad actual.
Otro factor a considerar es la presión y la culpabilización que recae sobre las familias por el uso que hacen los/las adolescentes (y niñas/os!) de las redes sociales.
A pesar de que es positivo que las grandes plataformas tomen conciencia del impacto social y de salud de su modelo de negocio, no podemos obviar que los adolescentes son sus futuros clientes, hecho que asegura una estrategia de captación a largo plazo.
Una alternativa basada en la educación
Más allá de la regulación y el control parental, hay que avanzar hacia una educación digital responsable. Nuestra experiencia con adolescentes demuestra que saben perfectamente cómo esquivar las limitaciones impuestas por los adultos. Por eso, el objetivo no tiene que ser solo restringir, sino acompañar en el uso responsable de las tecnologías.
Educar no consiste en evitar la exposición como quien pone una venda en los ojos, sino construir un proceso progresivo de aprendizaje. ¿Cómo lo hacemos? Reflexionando sobre la edad y la madurez de cada menor, manteniendo conversaciones abiertas y enseñándoles a entender los riesgos de manera adecuada. En este proceso, es esencial contar con el apoyo de otras familias y profesionales de la educación.
En definitiva, la protección digital no es solo responsabilidad de las grandes empresas o de las leyes, sino también de la sociedad en su conjunto. Solo con una mirada crítica y una educación y acompañamiento consciente, podremos garantizar un entorno digital más seguro y saludable para nuestros adolescentes.
¿No eres usuaria de la cooperativa y quieres recibir los artículos y recursos sobre infancia y pantallas? Déjanos aquí tu correo electrónico y te enviaremos el boletín trimestral.
Comparte en redes sociales