日本経済新聞によると、Apple は数週間以内に、子供が性的な画像を送受信しようとすると警告する児童保護機能を日本でも提供することを明らかにしました。この機能は、写真やメッセージの内容を見ることはなく、デバイス上の人工知能(AI)が検出を行います。
更に面白いコンテンツを観たい人は、Instagram @applealmondjp をフォローしてください!
メッセージアプリには、ヌードを含む写真を受信または送信する場合に、子供に警告するためのツールが含まれています。これらの機能はデフォルトでは有効になっていません。親がオプトインした場合、これらの警告は、彼らのファミリーシェアリングプラン内の子供アカウントに対して有効になります。
このタイプのコンテンツを受信する場合、写真はぼかされ、子供に警告が表示され、役立つリソースが提示され、この写真を表示したくない場合は大丈夫であることが保証されます。ヌードを含む写真を送信しようとする場合も、同様の保護が利用できます。両方の場合、子供たちは信頼できる人に助けを求めるためのメッセージングオプションが与えられます。
メッセージは画像添付ファイルを分析し、写真がヌードを含んでいるかどうかを判断しますが、メッセージのエンドツーエンドの暗号化は維持されます。この機能は、ヌードの検出の表示がデバイスから出ないように設計されています。Apple はメッセージにアクセスできず、親や他の誰にも通知は送信されません。
この機能は、アメリカで社会問題化している児童が性的搾取の被害に遭うことを受けて開発されたもので、英語圏では「Communication Safety(コミュニケーション安全性)」として提供されており、日本や韓国、ブラジルなど 6 カ国でも数週間以内に提供される予定です。
ただし、この機能を利用するには、iCloud のファミリー共有機能で子供として登録されたユーザーのペアレンタルコントロールを有効にした上で、不適切な写真を確認するチェックをオンにする設定が必要です。
また、この機能は、デバイスに保存された画像を自動スキャンし、データベースに登録された児童への性的虐待画像を検出する機能とは別物です。最後に、SNS サービスでも同様の機能が導入されることが期待されています。
併せて読みたい記事》
iPhone 15 Pro の CAD モデル:より薄いベゼル、より厚い曲線デザイン、Lightning ポートなしなど