Roblox는 13~17세 청소년을 대상으로 한 안전성 강화 조치를 도입했습니다. 이 시스템은 사용자의 영상 셀카를 분석하여 나이를 추정하는 혁신적인 AI 기반 연령 확인 기능을 갖추고 있습니다.
오늘 공개된 업데이트는 Roblox 플랫폼에서 청소년과 어린이의 안전을 강화하기 위해 설계된 여러 새로운 도구들을 소개합니다. 이번 업데이트의 핵심은 13~17세 청소년을 위해 맞춤화된 기능으로, 더 어린 이용자들보다는 플랫폼 상의 자유를 더 많이 부여하지만 성인보다는 더 엄격한 관리 아래에 두는 것입니다. 이제 청소년들은 플랫폼 내 채팅에서 필터링 없이 대화할 수 있는 "신뢰할 수 있는 연락처"를 지정할 수 있어, 대화를 안전하게 유지하고 부적절한 상호작용이 발생할 수 있는 모니터링되지 않은 제3자 플랫폼으로 청소년들이 이동하는 위험을 줄이는 것을 목표로 합니다.
신뢰할 수 있는 연락처는 서로를 잘 아는 사용자들을 위한 것입니다. 청소년이 18세 이상의 누군가를 신뢰할 수 있는 연락처로 추가하려면 QR 코드 스캐너나 연락처 가져오기 기능을 사용하여 검증을 받아야 합니다.
이전에는 Roblox가 특정 채팅 기능을 이용하기 위해 정부 발급 신분증을 통해 사용자가 13세 이상 또는 18세 이상임을 확인해야 했습니다. 이제는 대안적인 방법으로 사용자가 영상 셀카를 제출하면, AI가 방대하고 다양한 데이터 세트를 기준으로 사용자가 13세 이상인지 여부를 판단합니다. 유사한 기술은 올해 초 Google과 지난해 Meta에 의해 테스트된 바 있습니다.
이러한 업데이트 외에도, Roblox는 온라인 상태 제어, 방해 금지 모드, 그리고 자녀의 계정과 연결된 부모를 위한 강화된 parental control(부모 통제) 기능과 같은 새로운 도구들을 도입하고 있습니다.
Roblox는 아동 안전 조치에 관한 지속적인 검증을 받아왔습니다. 2018년에는 7세 아동의 캐릭터가 게임 내에서 성추행을 당했다는 보도와 6세 아동이 "성관계 방"에 초대되었다는 사건 등이 발생했습니다. 2021년에는 People Make Games의 보도가 Roblox의 비즈니스 모델이 아동 착취를 조장한다고 비난했습니다. 2022년에는 샌프란시스코에서 제기된 소송이 Roblox가 10세 아동의 경제적 및 성적 착취를 가능하게 했다고 주장했습니다. 2023년에는 불법 도박 생태계를 지원하고 미흡한 아동 안전 프로토콜로 인해 금전적 손실과 성인 콘텐츠 노출을 초래했다는 이유로 Roblox를 대상으로 한 소송이 제기되었습니다. 지난해 Bloomberg 보도 또한 플랫폼 내 아동 성범죄자들의 존재를 폭로했습니다. Roblox는 2023년에 National Center for Missing and Exploited Children(실종 및 착취 아동을 위한 국가 센터)에 13,000건 이상의 아동 착취 사건을 신고하여 24건의 체포로 이어졌다고 보고했습니다.
Roblox의 최고 안전 책임자 Matt Kaufman은 새로운 기능 발표와 함께 한 성명에서 "안전은 Roblox에서 우리가 하는 모든 일의 핵심입니다."라고 말했습니다. "우리는 온라인 게임 분야에서 안전과 예의에 관한 글로벌 표준을 정립하고, 모든 연령대의 플레이어들에게 매력적이고 권한을 부여하는 경험을 조성하며, 사용자들이 연결되는 방식을 지속적으로 개선하는 것을 목표로 하고 있습니다."
