
México.– La plataforma de videojuegos Roblox comenzó a implementar nuevas medidas de seguridad basadas en la edad de sus usuarios, con el objetivo de reforzar la protección de niñas, niños y adolescentes, particularmente en las funciones de comunicación dentro del entorno digital.
A partir de enero de 2026, los usuarios deberán completar un proceso de verificación de edad previo al uso de herramientas como el chat. Este procedimiento se realizará mediante un sistema de estimación de edad facial integrado directamente en la aplicación, como parte de una estrategia para limitar interacciones inadecuadas.
Con este nuevo esquema, los jugadores serán clasificados por rangos etarios —como menores de 9 años, de 9 a 12 y de 13 a 15— y solo podrán interactuar mediante chat con personas de su mismo grupo o de rangos cercanos. En el caso de los menores de 9 años, el chat permanecerá desactivado de forma predeterminada, salvo que exista consentimiento explícito de padres o tutores.
Estas medidas buscan reducir el contacto entre menores y adultos desconocidos, fortaleciendo así la seguridad dentro de las experiencias de juego. Además, la plataforma informó que estas acciones forman parte de un esfuerzo global para ofrecer entornos digitales más adecuados a la edad de cada usuario y alineados con las leyes de protección infantil vigentes en distintos países, incluido México.
Especialistas en seguridad digital han señalado que este tipo de controles representan un avance en la regulación de espacios virtuales frecuentados por menores, al priorizar la prevención y el control parental en plataformas de alto impacto social.
