Australia: El Gobierno advierte a empresas mientras menores usan redes sociales

Australia: El Gobierno advierte a empresas mientras menores usan redes sociales

Australia enfrenta desafíos en el control de redes sociales para menores

Australia se ha consolidado como un país pionero al implementar restricciones al acceso a redes sociales para menores de 16 años. Sin embargo, un reciente informe del organismo regulador eSafety ha revelado que un “porcentaje significativo” de niños continúa utilizando estas plataformas a pesar de la nueva normativa, que entró en vigor el 10 de diciembre de 2022. Esta ley exige a las plataformas verificar la edad de sus usuarios, bajo la amenaza de multas que pueden ascender a 49,5 millones de dólares australianos (alrededor de 29 millones de euros).

Resultados iniciales de la normativa

Desde la implementación de la norma, se han bloqueado o eliminado 4,7 millones de cuentas de menores en las principales redes sociales. No obstante, esta cifra pierde relevancia en comparación con el contexto más amplio: cerca del 70% de los menores aún acceden a plataformas como Facebook, Instagram, Snapchat y TikTok, y casi la mitad cuenta con perfiles en YouTube. Aunque la proporción total de menores en redes sociales ha disminuido del 49,7% al 31,3%, el regulador advierte que muchos de estos usuarios eluden la verificación de edad.

Preocupaciones sobre la salud mental

La creciente inquietud respecto a la salud mental de los jóvenes ha impulsado esta legislación. Un estudio realizado por el gobierno australiano indica que el 96% de los niños de entre 10 y 15 años son usuarios de redes sociales. De estos, siete de cada diez han estado expuestos a contenidos perjudiciales que incluyen, entre otros, mensajes misóginos, vídeos violentos y material que promueve trastornos alimentarios o suicidio. Estas preocupaciones están directamente relacionadas con el diseño de las plataformas, que incitan a los menores a pasar más tiempo frente a las pantallas y a consumir contenido nocivo.

Retos en la implementación de la normativa

A pesar de la intención, el método para asegurar el cumplimiento de la ley ha sido complicado. Las empresas tecnológicas tienen la responsabilidad de evitar que los menores de 16 años accedan a sus servicios. Meta, que posee plataformas como Facebook e Instagram, comenzó a cerrar cuentas de adolescentes en diciembre. La compañía ha implementado un sistema que permite a los usuarios expulsados demostrar su edad mediante documentos oficiales o vídeos de identificación. Sin embargo, el informe revela graves fallos en los mecanismos de control: la posibilidad de modificar la edad declarada y registrar datos falsos facilita eludir la normativa.

Acciones legales y presión internacional

Julie Inman Grant, líder del organismo eSafety, ha señalado que se están recopilando pruebas para posibles acciones legales contra las plataformas por no cumplir con la ley. Las empresas deben demostrar que han adoptado medidas «razonables» para evitar que menores accedan a sus servicios.

Simultáneamente, Indonesia ha introducido regulaciones similares y ha criticado a las grandes tecnológicas por su falta de colaboración. El gobierno indonesio ha instado a Meta Platforms y Google a implementar cambios que aseguren la detección y desactivación de cuentas de usuarios menores de 16 años, señalando que las plataformas aún no se ajustan completamente a la nueva regulación. TikTok y Roblox también han recibido advertencias por no cumplir con los requisitos establecidos.

Tendencia internacional en el control de redes sociales

Tanto Australia como Indonesia están liderando una tendencia global dirigida a establecer medidas que limiten el acceso de menores a redes sociales, buscando reforzar los controles de edad y reducir los riesgos que estos entornos digitales representan para niños y adolescentes.

0 0 votos
Article Rating
Suscribir
Notify of
guest
0 Comments
Más antiguos
Más recientes Más votados
Comentarios en línea
Ver todos los comentarios

Puede que te interese