Bruselas alerta a TikTok, Facebook e Instagram sobre riesgo para menores

Bruselas alerta a TikTok, Facebook e Instagram sobre riesgo para menores

Advertencia de la Comisión Europea a TikTok, Facebook e Instagram

La Comisión Europea ha emitido una severa advertencia a TikTok, Facebook e Instagram tras una evaluación preliminar. En este análisis, se ha constatado que las tres plataformas digitales no garantizan adecuadamente los mecanismos necesarios para investigar y reportar contenidos ilegales que podrían dañar a menores, tales como materiales de abusos sexuales o actos terroristas.

La Ley de Servicios Digitales y su impacto

Desde la entrada en vigor de la Ley de Servicios Digitales (DSA) en la Unión Europea hace poco más de dos años, se busca proteger mejor a los consumidores y sus derechos fundamentales en línea. Esta normativa exige a las grandes plataformas ser más transparentes y combatir contenidos ilícitos. La Comisión Europea ha abierto diversas investigaciones sobre múltiples plataformas por supuestas violaciones de esta ley, que tuvo críticas durante la administración de Donald Trump, acusando de censura. No obstante, Bruselas niega esta afirmación, defendiendo que su objetivo es salvaguardar la libertad de expresión frente a decisiones arbitrarias de moderación.

Mecanismos de reporte insuficientes

La investigación reciente no se centra en el tipo de contenido ilegal que estas plataformas pueden difundir, sino en los mecanismos que los usuarios tienen para reportar dicho contenido. Bruselas considera que estos procedimientos son demasiado complejos y no garantizan su eficacia. Según los hallazgos, TikTok, Facebook e Instagram cuentan con herramientas tan “engorrosas” que impiden un acceso adecuado a datos públicos para los investigadores, lo que podría tener consecuencias negativas en la evaluación del impacto de estas plataformas en la salud mental y física de los usuarios.

Críticas a Meta por la moderación de contenidos

En el caso específico de Facebook e Instagram, ambas pertenecientes a Meta, se ha señalado que la compañía no cumple con la obligación de proporcionar mecanismos sencillos para notificar contenido ilegal. Los sistemas actuales son descritos como “confusos” y “disuasorios”, ya que imponen pasos innecesarios que complican el proceso de denuncia.

Asimismo, se ha evidenciado que Meta también estaría violando los derechos de los usuarios europeos garantizados por la DSA al dificultar el proceso de apelación contra decisiones de moderación de contenido, como la suspensión de cuentas. La Comisión ha indicado que los mecanismos de apelación no permiten a los usuarios presentar explicaciones o pruebas para respaldar sus reclamaciones, limitando así su eficacia.

Próximos pasos y posibles sanciones

Aunque la investigación aún no es definitiva y las plataformas tienen la oportunidad de responder y presentar sus datos, la acción de Bruselas indica que hay pruebas suficientes de posibles infracciones, sustentadas en “cientos de denuncias” recibidas. Las investigaciones fueron iniciadas en febrero y abril de 2024.

Henna Virkkunen, comisaria de Soberanía Tecnológica, ha destacado que “nuestras democracias dependen de la confianza”, reiterando la necesidad de que las plataformas respeten los derechos de los usuarios y permitan un escrutinio público de sus servicios.

Meta ha respondido a la advertencia, desacreditando las acusaciones de incumplimiento de la DSA y asegurando que ha realizado los ajustes necesarios para alinearse con la normativa europea. Sin embargo, si la Comisión no acepta sus explicaciones y confirma sus hallazgos, podría imponer multas de hasta el 6% del volumen total de negocio anual a nivel mundial, así como sanciones periódicas obligatorias para el cumplimiento de la ley.

Puede que te interese