Roblox a introduit une série d'améliorations en matière de sécurité destinées aux adolescents âgés de 13 à 17 ans, incluant un système innovant de vérification d'âge piloté par l'IA qui analyse des vidéos selfies pour estimer l'âge d'un utilisateur.
La mise à jour d'aujourd'hui présente plusieurs nouveaux outils conçus pour renforcer la sécurité des adolescents et des enfants sur la plateforme Roblox. Au cœur de ces mises à jour se trouvent des fonctionnalités adaptées aux 13-17 ans, leur offrant plus de liberté sur la plateforme que les plus jeunes utilisateurs, mais avec une supervision plus stricte que pour les adultes. Les adolescents peuvent désormais désigner des "contacts de confiance" pour des discussions non filtrées sur la plateforme, visant à maintenir la sécurité des conversations et à réduire le risque que les adolescents migrent vers des plateformes tierces non surveillées où des interactions inappropriées pourraient se produire.
Les contacts de confiance sont destinés aux utilisateurs qui se connaissent bien. Pour qu'un adolescent ajoute une personne de 18 ans ou plus comme contact de confiance, il doit utiliser un scanner de code QR ou un importateur de contacts pour vérification.
Auparavant, Roblox exigeait une pièce d'identité gouvernementale pour confirmer que les utilisateurs avaient 13 ans ou plus, ou 18 ans ou plus, pour certaines fonctionnalités de discussion. Désormais, une méthode alternative permet aux utilisateurs de soumettre une vidéo selfie, que l'IA évalue par rapport à un vaste ensemble de données diversifiées pour déterminer si l'utilisateur a 13 ans ou plus. Des technologies similaires ont été testées par Google plus tôt cette année et par Meta l'année dernière.
Au-delà de ces mises à jour, Roblox introduit de nouveaux outils comme des contrôles de statut en ligne, un mode ne pas déranger et des contrôles parentaux améliorés pour les parents liés au compte de leur adolescent.
Roblox a fait face à un examen minutieux continu concernant ses mesures de sécurité des enfants. En 2018, des incidents ont fait surface, incluant un rapport concernant le personnage d'un enfant de sept ans agressé sexuellement dans le jeu et un enfant de six ans invité dans une "chambre sexuelle". En 2021, un rapport de People Make Games a critiqué le modèle économique de Roblox pour avoir allegedly exploité le travail des enfants. En 2022, une plainte à San Francisco a accusé Roblox de permettre l'exploitation financière et sexuelle d'un enfant de 10 ans. En 2023, des poursuites ont ciblé Roblox pour avoir allegedly soutenu un écosystème de jeu illégal et des protocoles de sécurité des enfants inadéquats, entraînant des pertes financières et une exposition à du contenu pour adultes. Un rapport de Bloomberg l'année dernière a également exposé la présence de prédateurs d'enfants sur la plateforme. Roblox a signalé plus de 13 000 cas d'exploitation d'enfants au Centre national pour les enfants disparus et exploités en 2023, conduisant à 24 arrestations.
"La sécurité est au cœur de tout ce que nous faisons chez Roblox", a déclaré Matt Kaufman, directeur de la sécurité de Roblox, dans un communiqué accompagnant l'annonce de la nouvelle fonctionnalité. "Nous visons à établir la norme mondiale en matière de sécurité et de civilité dans le jeu en ligne, en favorisant des expériences engageantes et autonomisantes pour les joueurs de tous âges tout en affinant continuellement la manière dont les utilisateurs se connectent."
