iOS15で実装すると発表したことで物議を醸している児童性的虐待資料(CSAM)スキャン機能は、先日リリースされたiOS15.2でも実装されませんでした。
いつ実装されるのか、本当に実装できるのかが注目されていたのですが、AppleはChild SafetyのWEBページからCSAMの記述を削除したのです。
CSAMスキャン機能は批判の的に
AppleがiPhoneやiPadに実装するCSAMスキャン機能は、iCloudフォトに保存された性的な写真をスキャンしたり、メッセージアプリで送受信する際に子供または親が利用しているデバイス上に警告文を表示させるという機能です。
このような方法で児童を性的な被害から守るための新機能が、実装されるといわれていました。ですがAppleがCSAMを発表したところ、セキュリティ研究者や電子フロンティア財団、政治家や大学研究者など、幅広い個人や団体から批判を受けてしまったのです。
Appleが計画しているCSAMスキャン機能は、ある研究者から監視に近い技術を利用しているが、児童の性的な虐待の画像を識別するのには向いていないと指摘されたのです。
この指摘に対してAppleは詳細情報の公開や幹部のインタビューなどを掲載して、この機能に対するユーザの不安や誤解を払拭するべく奮闘しました。
ですがAppleの努力は徒労に終わり、論争は収束できなかったのです。このままiOS15.2に実装しようとしていたメッセージでの送受信で検知する機能についても、想定していなかった批判を多く受けたことからCSAMの実装も延期を決定しました。
専門家たちの意見収集へ
Appleは今後、CSAMを実装するためにどうすればいいか、専門家から意見を数カ月間収集し、改善を行うことにしたのです。その一環として公開していたChild Safetyのページからは、CSAMの記述を削除しました。
あとは研究者や支援団体のフィードバックから、どのように機能を実現すればいいのかを慎重に改善を行うことを述べています。AppleとしてはCSAMの実装を諦めたわけではないため、今後のiOSアップデート時に実装されることになると思いますが、まだまだ時間がかかる内容になることは間違いないでしょう。
ただ、実際に被害にあっている児童もいることから、機能的に実装することは子供が被害に合わないようにするために必要不可欠な対策なのかもしれません。
いつになるかわかりませんが、早急に実装されることに期待したいですね。
Source&Photos:MacRumors