EP は、子供と青少年が 16 歳からソーシャル ネットワーク、ビデオ共有プラットフォーム、または人工知能を備えたサービスにアクセスできるようにすることを提案しています。13 ~ 16 歳の子供については、親の明示的な同意がある場合にのみアクセスが有効となり、13 歳未満の子供のアクセスは禁止されるべきです。 EP は、この統一規制により、明確なルールなしにデジタル環境が子供たちに危険を及ぼさないようにしたいと考えています。

このような提案の理由は、若者の健康、安全、発達への懸念です。 EPは、かなりの割合の子供や十代の若者が、現状ではすでにスマートフォンやソーシャルネットワークの「問題のある」使用の兆候を示していると指摘している。議員らによると、情報のスピードの速さ、スパムアルゴリズム、際限のないスクロールや中毒性のあるデザインのゲームは、子どもたちの精神に悪影響を及ぼし、注意力や健全な発達を妨げる可能性があるという。

EPは年齢制限に加えて、デジタルプラットフォームに対するより厳格な規則も提案しており、子供の宣伝や注意の操作を目的とした最も有害な行為(無限スクロール、自動再生、「ルートボックス」、ゲーミフィケーション要素など)を禁止している。プラットフォームは、ユーザーの年齢を考慮してサービスを設計し(年齢に応じた設計)、ユーザーの年齢を確実に検証することを義務付ける必要があります。

ただし、これらは現時点での推奨事項であり、すべての EU 加盟国に自動的に適用される法的規則ではないことに留意する必要があります。したがって、実際の変化への移行は、年齢確認とプライバシー保護の技術的および法的設定だけでなく、加盟国、規制当局、プラットフォーム自体の意欲に依存します。

親、若者、そして社会全体にとって、これは、子どものデジタルの安全性に関する議論が非常に真剣な枠組みを獲得しつつあることを意味し、それはもはや単なる「モバイル性の低下」に関するアドバイスではなく、汎ヨーロッパレベルで設計された責任あるルールについてのものです。採用されれば、子どもたちがEU内のどこに住んでいるかに関係なく、オンライン世界の有害な影響から子どもたちを守るのに役立つ標準となる。

Share.