サイトアイコン カムデイニュース

Instagramの18歳未満の制限強化:安全なオンライン体験を求める新たな対策

インスタグラムは、未成年のユーザーを保護するための新たな取り組みを発表し、18歳未満のアカウントを自動的に非公開にする「ティーンアカウント」機能を導入することを決定しました。この機能は、今後数ヶ月内に順次実施される予定で、特に子どもたちに対するオンラインの安全対策を強化することを目的としています。

この新しい「ティーンアカウント」機能は、特に未成年者が直面する危険な状況を軽減するために設計されています。若者がスマートフォンやタブレットでソーシャルメディアを利用する際のリスクが注目され、特にインフルエンサーや有害なコンテンツにさらされる可能性が指摘されている中で、この対策は重要性を増しています。

ティーンアカウントの概要

「ティーンアカウント」にはさまざまな保護機能が備わっており、包括的な対応が求められています。以下の項目が主な機能です。

機能 説明
非公開アカウント化 すべての18歳未満のユーザーは自動的に非公開アカウントとなり、フォロワーの承認が必要になる。
メッセージの制限 フォローしているユーザーまたは相互にフォローしているユーザーからのメッセージのみ受信可能。
センシティブコンテンツの制限 「発見」や「リール」機能で不適切なコンテンツが自動的に制限される。
タグ付けやメンションの制限 フォローしているユーザーのみがタグ付けやメンションを行える。不快な表現は自動で除外される。
利用時間のリマインダー 1日の利用が60分を超えると、利用停止のアラートが表示される。
スリープモード 午後10時から午前7時までの時間帯は通知がミュートされ、ダイレクトメッセージには自動返信が送信される。

この図のように、「ティーンアカウント」によって不適切なコンテンツへのアクセスが制限され、ユーザー体験が保護されるように設計されています。

政府機関からの圧力と対応

Metaは、特にEUや米国から若者保護が不十分との批判を受けており、これに対抗する形で新たな施策を講じていると考えられます。特に、社会におけるデジタルメディアの影響力の増大に伴い、安全対策が求められている背景には、青少年が必要とするオンライン環境の安全性が力強く訴えられていることがあります。

この新しい取り組みの導入は、同社が未成年者の利用状況に積極的に対応している側面を示しています。日本では2025年1月から、この強化された機能が適用される予定です。

参考動画

エビデンスと統計データ

最近の調査によれば、未成年のSNS利用者の多くは、プラットフォーム上でのトラブルや危険な状況に遭遇した経験があると報告しています。

このようなデータは、「ティーンアカウント」の必要性を裏付けています。

年齢確認の強化

新たな機能の一環として、ユーザーの年齢確認をより厳格に行う必要があります。これには以下の方法が含まれます:

このアプローチにより、年齢確認が必要な場面において、適切な処置が取られることが期待されています。インスタグラムのトップ、アダム・モッセリ氏は、「この新機能は、若者に自動的な安全保護を提供することを目的としている」と語っています。

保護者へのサポート

同時に、保護者に向けた新しいペアレンタルコントロール機能も導入されます。これには、子どもたちがどのようなコンテンツを閲覧しているかを把握する手段が含まれています。

このように、保護者も含めたトータルなサポート体制が整っており、子どもたちが安全にSNSを利用できる環境作りが進められています。

まとめと今後の展望

今後もインスタグラムは、未成年のユーザーを保護するための取り組みを強化していくことが予想されます。SNSの利用増加が進む中で、企業としての責任を果たす必要があります。特に若者の安全な体験を確保するために、教育的な要素を取り入れた利用促進活動も行っていく可能性が高いです。

最後に、未成年のユーザーがより安全にインスタグラムを利用できる環境が整うことを期待しています。

モバイルバージョンを終了