En el marco de una estrategia de contención para una generación hiperconectada, la empresa matriz de Facebook, Instagram y Messenger, llamada Meta, anunció este martes una nueva serie de restricciones orientadas a adolescentes que utilizan sus plataformas.
Todas las medidas se toman con un objetivo claro: reforzar la seguridad digital de los menores y responder a la presión de padres y reguladores. A partir de ahora, los adolescentes tendrán acceso limitado en Facebook y Messenger a través de cuentas con medidas de protección automáticas.
Esto incluye filtros de contenido inapropiado, restricciones de contacto con desconocidos, límites de uso durante la noche, y herramientas para que los padres supervisen la actividad digital de sus hijos. Los cambios se suman a las restricciones ya implementadas en Instagram desde septiembre del año pasado, cuando se activaron estas cuentas especiales para menores.
Menos libertad, más control: estas cuentas no son como las tradicionales
Según datos de Meta, el 97 % de los usuarios entre 13 y 15 años ha mantenido activas estas limitaciones desde entonces. En cuanto a los usuarios, se configuran como privadas por defecto, se eliminan ciertas funciones, limitan notificaciones entre las 22:00 y las 7:00.
Asimismo, el control parental incluirá la capacidad de decidir si los adolescentes pueden hacer transmisiones en vivo o recibir imágenes no solicitadas en mensajes directos, los adolescentes no podrán hacer lives ni ver imágenes con contenido sospechoso, a menos que sus padres lo permitan.
Esta medida, implementada primero en Instagram, ahora se extenderá a Messenger y Facebook, junto a las nuevas inversiones en IA, reforzando un ecosistema de navegación más seguro. Además, los adolescentes solo recibirán mensajes de personas que ya siguen o con quienes hayan interactuado previamente.
Nuevas funciones y filtros de archivos: lo que ofrece Meta
Las menciones, etiquetas y comentarios también quedarán limitados a conexiones conocidas. En otras palabras, el alcance social se estrecha deliberadamente, en este caso Meta señaló que algunas de las nuevas funciones vendrán activadas por defecto.
Hasta el momento, el modo silencioso se encenderá de manera automática por las noches, y los usuarios recibirán notificaciones si superan una hora diaria de uso, esto busca contrarrestar el uso excesivo y sus efectos en la salud mental.
Otro punto clave es que los adolescentes no podrán desactivar el filtro de imágenes borrosas en los mensajes, que se activa cuando se detecta contenido con posibles desnudos, la desactivación de este filtro estará a cargo de los padres y los jóvenes de 16 años necesitarán autorización parental para realizar cualquier cambio en la configuración de su cuenta.
El anuncio de estas restricciones no es casual: presión legislativa
Meta determina estas medidas luego de un pedido regulatorio por parte de las autoridades regulatorias en Estados Unidos y Europa. Desde la Unión Europea investigan si Facebook e Instagram violan normativas de protección infantil. En EE.UU, legisladores exigieron controles más estrictos por que las redes sociales pueden contribuir al deterioro de la salud mental juvenil.
De hecho, fue después de estos señalamientos cuando Instagram comenzó a implementar las cuentas de adolescentes, y ahora el paso se amplía a Messenger y Facebook (entérate sobre las amenazas de Trump). Sin embargo, el jefe de Instagram, Adam Mosseri, insistió en la necesidad de darle a los padres ciertas herramientas para decidir qué es mejor para sus hijos.
Por otro lado, mediante la empresa afirman que, desde que comenzaron con este sistema en 2024, se registraron 54 millones de cuentas de adolescentes bajo restricciones. En la actualidad, estas medidas solo están activas en EE.UU., Reino Unido, Canadá y Australia, pero Meta asegura que se desplegarán pronto en otras regiones para poder estableces un nuevo estándar y proteger a los usuarios menores.
