トム・サイクス
投稿日: 2021年9月11日
Appleは、近々リリース予定のiOS 15.2ソフトウェアアップデートの2番目の開発者向けベータ版をリリースし、リリース時に新しい「メッセージのコミュニケーションの安全性」機能が有効になることを確認した。この機能には、子供が性的に露骨な写真を受信または送信した場合に子供とその親に警告するツールが含まれている。
今年初めに発表されたアップルは、メッセージで送信された不適切な画像を自動的にぼかす機能、児童性的虐待コンテンツ、ユーザーのライブラリで不適切な画像が検出された場合のCSAM検出など、いくつかの新しい子供の安全ツールを計画していると述べた。
iCloudフォトに保存されている児童ポルノや関連する性的虐待の素材が検知され、フラグが付けられ全米行方不明・被搾取児童センター(NCMEC)に報告されるというツールに関するプライバシーへの懸念に対する反発を受けて、 Appleは顧客、支援団体、研究者などからのフィードバックを受けて 、新しい安全機能の導入を延期すると発表した。
Appleは現在、少なくともいくつかの新しい安全機能のリリースを準備しているようだ。iOS 15.2では、iCloudファミリー共有に接続されたデバイスで性的に露骨な画像が送受信されたときに子供と親に警告するiMessageの警告や、メッセージで送信された露骨な画像を自動的にぼかす機能が追加されている。
画像: Apple
Appleによると、この種のコンテンツを受信すると、写真はぼかされ、お子様には警告が表示され、役立つリソースが提示され、写真を見たくない場合は大丈夫だと安心させられます。さらに、お子様の安全確保のため、万が一写真を見てしまった場合は保護者にメッセージが届くこともお知らせします。お子様が性的に露骨な写真を送信しようとした場合にも、同様の保護策が利用可能です。写真が送信される前にお子様に警告が表示され、お子様が送信を選択した場合は保護者にメッセージが届きます。
メッセージアプリは、デバイス上の機械学習を用いて画像添付ファイルを分析し、写真が性的に露骨なものかどうかを判断します。この機能は、Appleがメッセージにアクセスできないように設計されています。
Apple は、iCloud フォトに保存されている既知の CSAM 画像を検出できる児童性的虐待素材 (CSAM) ツールセットをいつリリースするかをまだ発表していない。
著者
トム・サイクス
今話題の
あなたも好きかもしれません