メタ、FacebookとInstagramでティーンを保護するためのメッセージ設定を強化
Meta は Facebook や Instagram の親会社であり、新しい対策 を発表しました。この対策は、プラットフォームを利用するティーンエイジャーの安全性を向上させることを目的としています。これらの変更には、メッセージングの制限強化や、未成年者を不要なオンライン接触から保護するための保護者管理機能の改善が含まれます。
これまで、Instagramは、18歳以上の成人がフォローしていないティーンエイジャーにメッセージを送信することを禁止していました。今回、Metaはこの制限を16歳未満、地域によっては18歳未満のすべてのユーザーにデフォルトで拡大します。
16歳未満または18歳未満のティーンエイジャーは、フォローしていないユーザーからメッセージを受け取ることができなくなります。未成年者は、フォローしている個人や Instagram と Messenger で接続している個人からのみメッセージを受け取ります。これらの設定を変更する試みは、親または保護者の承認が必要です。
これらのメッセージング制限に加えて、Meta は保護者監督ツールの強化も導入しています。親は現在、ティーンエイジャーの子供がデフォルトのプライバシー設定を変更する際に、それを承認または拒否する権限を持ちます。以前は、親はこれらの変更について通知を受けるだけで、制御は限られていました。
さらに、Meta はティーンエイジャーがダイレクトメッセージで不適切なコンテンツを閲覧するのを防ぐ機能を開発中であり、暗号化されたチャットでも機能する予定です。この機能の詳細はまだ開示されていませんが、Meta は若いユーザー間でのそのようなコンテンツの共有を思いとどまらせることを目指しています。
これらのアップデートは、ソーシャルメディアプラットフォーム上の未成年者の安全保護に関する懸念が高まる中で導入されました。しかし、同社はプラットフォーム上の児童の安全と有害なコンテンツに関連する規制当局からの精査や法的課題に直面しています。