Es difícil poner puertas al WiFi. Australia, país pionero en limitar el acceso a redes sociales a menores de 16 años, está encontrando dificultades para hacer efectiva la restricción. Un informe del regulador de seguridad en internet eSafety señala que un “porcentaje significativo” de menores sigue utilizando redes sociales pese a la ley, en vigor desde el pasado 10 de diciembre. Esta norma obliga a las plataformas a verificar la edad de los usuarios bajo amenaza de multas de hasta 49,5 millones de dólares australianos (unos 29 millones de euros).

En las primeras semanas de aplicación, las plataformas eliminaron o bloquearon 4,7 millones de cuentas de menores. La cifra parece alta, pero se encoge al ponerla en contexto. Según el informe, cerca de siete de cada diez menores continúan en plataformas como Facebook, Instagram, Snapchat o TikTok, mientras que casi la mitad mantiene cuentas en YouTube. Aunque el porcentaje total de menores en redes se redujo del 49,7 % al 31,3 %, el regulador advierte de que muchos niños no han sido sometidos a verificaciones de edad.

Australia ha sido un país pionero en limitar el acceso de los menores a redes sociales. España ya ha anunciado que seguirá sus pasos. También Francia y Reino Unido. El motivo principal es la creciente preocupación por la salud mental de los menores. Los datos que maneja el gobierno australiano en este sentido son contundentes: según un estudio encargado por Canberra, el 96% de los niños de entre 10 y 15 años usan redes sociales. De ellos, 7 de cada 10 han estado expuestos a contenidos y comportamientos dañinos, que van desde mensajes misóginos hasta vídeos violentos o que promuevan trastornos alimentarios o hasta el suicidio. Y eso se debe al “diseño [de las propias plataformas] que los incita a pasar más tiempo frente a las pantallas, a la vez que les ofrece contenido que puede perjudicar su salud y bienestar”.

La motivación es clara, pero el método para lograrlo no tanto. El Gobierno trasladó ese problema a las plataformas, que son las responsables de no tener usuarios menores de 16 años. Meta, propietaria de Facebook, Instagram y Threads, empezó a cerrar cuentas de adolescentes el pasado diciembre. La compañía afirmó que cualquier persona expulsada por error podría utilizar un documento de identidad oficial o enviar un vídeo selfie para demostrar su edad.El informe detecta fallos estructurales en los sistemas de control, como la posibilidad de modificar la edad declarada, repetir intentos de verificación o registrarse con datos falsos, lo que facilita eludir la normativa.

La principal responsable de eSafety, Julie Inman Grant, advirtió de que el organismo está recabando pruebas para posibles acciones legales y subrayó que las plataformas deben demostrar que han adoptado medidas “razonables” para evitar que menores de 16 años tengan cuentas.

En paralelo, Indonesia, que acaba de aprobar una normativa similar, ha acusado a las grandes tecnológicas de falta de colaboración para aplicar la prohibición. El Gobierno indonesio ha urgido a compañías como Meta Platforms y Google a introducir cambios en sus sistemas para detectar y desactivar cuentas de menores de 16 años, al considerar que todavía no cumplen plenamente con la regulación. La ministra de Comunicación y Asuntos Digitales de Indonesia, Meutya Hafid, aseguró que las plataformas no habían informado de las medidas que adoptarían para aplicar la norma, y el Gobierno también ha emitido avisos a TikTok y Roblox por el mismo motivo.

Australia e Indonesia se adelantan así a otros países que estudian medidas similares para limitar el acceso de menores a redes sociales, en una tendencia internacional que busca reforzar los controles de edad y reducir los riesgos asociados al uso de estas plataformas por niños y adolescentes.

source

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *