トム・サイクス
投稿日: 2022年7月12日
Appleは、iCloudフォトに保存されている既知の児童性的虐待素材(CSAM)を検出するために画像をスキャンする計画を正式に撤回した。この計画により、Appleは検出された素材を法執行機関に報告することが可能になった。iPhoneメーカーは火曜日、代わりに2021年12月に初めて利用可能になったコミュニケーションセーフティ機能への投資を強化すると発表した。
Appleは昨年、CSAM iCloudフォトスキャン機能を発表した直後からプライバシー擁護団体からの反発に直面し、 政府がAppleに非CSAM画像を検出リストに追加するよう強制するのではないかという懸念や、誤検出がどのように報告され対処されるのかといった苦情を受けて、保護ツールセットの導入を延期した。
AppleはWIREDに共有された声明の中で、「企業が個人データを精査しなくても、子供たちは保護されることができる」と述べ、「iCloudフォト用に以前提案したCSAM検出ツールを進めないことを決定した」ことを確認した。
昨年提案した児童保護の取り組みについて、専門家との綿密な協議を経て、2021年12月に初めて提供を開始したコミュニケーションセーフティ機能への投資を強化します。また、iCloudフォト向けに以前提案したCSAM検出ツールについては、開発を中止することを決定しました。企業が個人データを精査しなくても、子どもたちを守ることは可能です。私たちは、政府、児童擁護団体、その他の企業と協力し、若者の保護、プライバシー権の確保、そして子どもたちと私たち全員にとってより安全なインターネットの実現に取り組んでいきます。
Appleが声明で言及しているコミュニケーションセーフティ機能は、子供がiMessageを通じて性的に露骨な写真を受信または送信した場合に子供とその親に警告するツールである。
米国で最初に導入され、その後英国、カナダ、オーストラリア、ニュージーランドに拡大されたApple のメッセージにおける子どものコミュニケーションの安全性機能は、iCloud ファミリー共有に接続されたデバイスで性的に露骨な画像が送受信されたときに子どもと保護者に警告を送信するほか、メッセージで送信された露骨な画像を自動的にぼかす機能も備えている。
不適切な表現を含むコンテンツを受信すると、セーフガーディングツールが画像をぼかし、お子様に警告を表示します。さらに、お子様の安全確保のため、お子様が画像を閲覧した場合は保護者にメッセージが届くことをお知らせします。お子様が性的に露骨な写真を送信しようとした場合にも、同様の保護機能が利用可能です。お子様は写真を送信する前に警告を受け、お子様が送信を選択した場合は保護者にメッセージが届きます。
著者
トム・サイクス
今話題の
あなたも好きかもしれません