Robloxは13歳から17歳のティーンを対象とした一連の安全強化策を導入しました。革新的なAI駆動の年齢確認システムがビデオ自撮りを分析し、ユーザーの年齢を推計する機能を特徴としています。
本日のアップデートは、Robloxプラットフォーム上のティーンや子ども向けの安全性を強化するために設計された複数の新ツールを概説しています。これらのアップデートの中核をなすのは、13歳から17歳のティーン向けに特化した機能で、より幼いユーザーよりも多くのプラットフォーム上の自由が与えられる一方、成人よりも厳格な監督が行われます。ティーンは現在、プラットフォーム内でのフィルタリングされていないチャットのために「信頼できる連絡先」を指定できるようになり、会話の安全性を確保し、不適切な交流が発生する可能性のある監視対象外のサードパーティ製プラットフォームへティーンが移行するリスクを低減することを目指しています。
信頼できる連絡先は、お互いをよく知っているユーザーを対象としています。ティーンが18歳以上の人を信頼できる連絡先として追加するには、QRコードスキャナーまたは連絡先インポーターを使用して認証を行う必要があります。
以前は、Robloxは一部のチャット機能に関して、ユーザーが13歳以上または18歳以上であることを確認するために政府発行の身分証明書を要求していました。現在では、代替方法としてユーザーがビデオ自撮りを提出することができ、AIがその自撮りを多様で大規模なデータセットと照合して、ユーザーが13歳以上かどうかを判断します。同様の技術は、昨年にMetaが、そして今年の初めにはGoogleがテストを行っていました。
これらのアップデートに加えて、Robloxは、オンラインステータス制御、取り込み禁止モード、そして自身のティーンのアカウントにリンクされた保護者向けの強化されたペアレンタルコントロールなどの新ツールを導入しています。
Robloxは子ども向け安全対策に関して継続的な監視に直面しています。2018年には、7歳児のキャラクターがゲーム内で性的暴行を受けたとの報告や、6歳児が「性的な部屋」に招待された事件などが表面化しました。2021年には、People Make Gamesの報告書が、Robloxのビジネスモデルが児童労働を搾取していると非難しました。2022年には、サンフランシスコでの訴訟が、Robloxが10歳児に対する経済的および性的搾取を可能にしたと訴えました。2023年には、Robloxが違法なギャンブル生態系を支援し、不十分な子ども安全プロトコルにより、金銭的損失や成人向けコンテンツへの接触を招いたとして訴訟の対象となりました。昨年のBloombergの報告でも、プラットフォーム上に児童への性的搾取者が存在することが暴露されました。Robloxは2023年に、全米行方不明・被搾取児童センターに13,000件以上の児童搾取事例を報告し、これにより24人が逮捕されました。
「安全は、Robloxにおける私たちのあらゆる活動の核心です」と、Robloxの最高安全責任者であるマット・カウフマンは、新機能発表に伴う声明の中で述べました。「私たちは、オンラインゲームにおける安全性と礼儀正しさの世界的な基準を確立し、あらゆる年齢のプレイヤーにとって魅力的で力強い体験を育みながら、ユーザー同士のつながり方を絶えず洗練させることを目指しています。」
