インスタグラム、10代の自殺や自傷行為の検索について保護者に通知へ
オーストラリア政府による16歳未満のソーシャルメディアの使用禁止に従うよう政府への圧力が高まる中、インスタグラムは、10代の子どもが短期間に自殺や自傷行為に関連する用語を繰り返し検索した場合、保護者に通知すると発表した。
英国は12月のオーストラリアの措置を受けて、オンラインで子どもを守るための制限を検討していると1月に発表した。スペイン、ギリシャ、スロベニアもここ数週間、アクセス制限を検討していると発表した。
メタプラットフォームズ傘下のインスタグラムは木曜日、子供が自殺や自傷行為のコンテンツにアクセスしようとした場合、オプションの監視設定に登録している保護者に警告を開始すると発表した。
同プラットフォームは声明で、「これらの警告は、インスタグラム上の潜在的に有害なコンテンツから十代の若者を守るための既存の取り組みに基づいている」と述べた。 「私たちは、自殺や自傷行為を促進または美化するコンテンツに対して厳しいポリシーを持っています。」
10代のインスタグラムユーザーのほぼ20%が望まないヌードを見たと報告していることが裁判所への提出で明らかになった
インスタグラムによると、既存のポリシーはこうした検索をブロックし、人々をサポートリソースにリダイレクトするもので、米国、英国、オーストラリア、カナダで登録した人たちを対象に来週から警告を開始すると付け加えた。
政府は、特に同意のない性的な画像を生成した AI チャットボット Grok に対する懸念を受けて、オンラインでの危害から子供たちを守ろうとする傾向が強くなっています。
英国では、児童向けのポルノサイトへのアクセスを阻止するための措置が大人のプライバシーに影響を与えており、言論の自由や規制範囲の制限を巡り米国との緊張が高まっている。
Instagramの16歳未満向けの「ティーンアカウント」の設定を変更するには親の許可が必要だが、親はティーンエイジャーの同意を得て追加の監視レイヤーを選択できる。
(これはシンジケート ニュース フィードから自動生成された未編集の記事です。赤鉛筆とお馬さん スタッフがコンテンツ本文を変更または編集していない可能性があります)



