Prohibir las redes a menores está de moda, pero Brasil prefiere exigir plataformas menos adictivas

¿Cómo son estas características precisamente? Diversas investigaciones han advertido que características como el scroll infinito, las notificaciones push, las recomendaciones personalizadas y los sistemas de recompensas están diseñadas para garantizar largos periodos de conexión, especialmente entre los usuarios más jóvenes. Brasil, de hecho, sería el primer país de América Latina en aplicar una ley que proteja a los menores del scroll infinito y los videos con autoplay. Documentos internos filtrados de empresas como TikTok sugieren que, en efecto, varias de estas herramientas fueron creadas con el objetivo de maximizar el tiempo de permanencia de los usuarios.

En respuesta a estos señalamientos, las plataformas han implementado, bajo sus propios estándares de seguridad, distintas funciones de protección, como controles parentales, notificaciones de descanso y ajustes en los algoritmos según la edad del usuario. No obstante, algunos especialistas consideran que estas medidas resultan insuficientes, ya que trasladan la responsabilidad de la protección a los propios usuarios.

En una entrevista con WIRED, la documentalista Lauren Greenfield sostuvo que “la ingeniería actual de las apps sociales es una situación insostenible. No es justo pedirles a los adolescentes que se autorregulen cuando las plataformas han sido diseñadas para crear adicción”.

Las leyes de Brasil y la Unión Europea buscan atender este problema al establecer responsabilidades vinculantes que obligan a las empresas tecnológicas, entre otras cosas, a activar mecanismos de privacidad y seguridad por defecto, implementar sistemas auditables de verificación de edad, clasificar contenidos por rangos etarios y realizar ajustes en los algoritmos y en las estructuras funcionales para evitar la promoción de características consideradas potencialmente adictivas.

A juicio de Badillo, este enfoque, más preventivo que restrictivo, podría resultar más efectivo y tener mayores posibilidades de adopción. “Al final le da oportunidad a las empresas de alinearse con valores y derechos, reconociendo estos principios y, al mismo tiempo, continuar ofreciendo sus servicios. Creo que las big tech van a preferir colaborar con la autoridad, innovar y cumplir con este tipo de legislación antes que simplemente tener la puerta cerrada en ciertas jurisdicciones o mercados que podrían ser clave”, explica.

Por otro lado, las compañías del sector han señalado que la implementación de prohibiciones tajantes no representa una solución real al problema. Argumentan que estas medidas podrían generar efectos contraproducentes, como la migración masiva de usuarios hacia plataformas más peligrosas o menos reguladas.

En ambos casos, aún existen desafíos importantes para establecer regulaciones efectivas. Uno de ellos es la definición clara de conceptos ambiguos, como “riesgo significativo” o daño al desarrollo psicosocial. Además, la falta de evidencia científica concluyente sobre la relación causal entre el uso de redes sociales y problemas de salud mental en menores complica la creación de estándares regulatorios claros.

Hace dos años, Vivek Murthy, ex cirujano general de Estados Unidos, advirtió que la exposición excesiva y prolongada a plataformas de interacción social durante la infancia puede derivar en problemas de salud mental, alteraciones del sueño y dificultades para relacionarse con el entorno.

En contraste, un informe de la Asociación Estadounidense de Psicología (APA, por sus siglas en inglés) sostuvo que el uso de redes sociales “no es inherentemente beneficioso ni perjudicial para los jóvenes”, aunque reconoció la necesidad de realizar más investigaciones para comprender mejor sus efectos.

Mientras la lista de demandas contra las plataformas digitales por presuntos daños a la seguridad y la salud mental de niños y adolescentes continúa creciendo, los países aceleran sus esfuerzos para regular, de una u otra manera, el funcionamiento de las redes sociales. En este contexto, Badillo concluye que es necesario reflexionar con mayor profundidad sobre el alcance que deberían tener estas normativas.

“Si el contenido en redes sociales representa un riesgo o si una plataforma es altamente adictiva, estas características deberían corregirse no solo por el hecho de que podrían resultar perjudiciales para un menor, sino porque también pueden ser dañinas para la sociedad en su conjunto”, concluye.

Salir de la versión móvil