Nishiki-Hub

国内外のPC/PCパーツ/スマホ/Appleなどの最新情報を取り上げています

AppleがiOS 15などで、子供が性的な写真を送受信したときに本人と親に警告する機能を追加すると発表 ~ サードパーティに向けても開放予定 米国から

f:id:doskokimeil127-dosd:20210810103703p:plain

錦です。

Appleは、iOS 15、iPadOS 15、macOS Monterey向けに、新しい子供向けの安全機能を搭載することを明らかにしました。

機能の内容

メッセージApp

機能の内容としては、「メッセージ」Appを用いて、性的に露骨な写真を子供が送受信したとき、子供自身とiCloudファミリーで紐付けられている親に警告が送信されます。性的な写真かどうかを判断するのはデバイス上の機械学習によるものです。

「メッセージ」Appで送受信された静的なコンテンツは、ぼかしが入った状態で表示され、子供に警告が表示されます。そして、オプションとして、その写真を閲覧したとき、あるいは、それを別の連絡先に送信するなどした場合に、親(保護者)が通知を受け取ることができます。

Appleは、iMessageのチャットはエンドツーエンドで暗号化されたままで、Appleが内容を読み取れないと強調しています。

性的虐待資料の写真のスキャン

そして、iOS 15とiPadOS 15で、AppleiCloud Photoに保存されている基地の児童性的虐待資料(CSAM)画像を検出できるようになり、Appleはこれらの事例を当局・米国の法執行機関と協力して活動するNPOに通報できるようになります。

このスキャン方法ですが、NCMEC(全米行方不明・被搾取児童センター)やその他の児童安全組織が提供する既知のCSAM画像ハッシュのデータベースに対してシステムがデバイス上で照合を実行するとのことで、Appleは、このデータベースを、ユーザーのデバイスに安全に保存される読み取り不可能なハッシュのセットにさらに変換すると述べました。Appleは、このハッシュ技術をNeural Hashと名付けています。

f:id:doskokimeil127-dosd:20210810113939p:plain
ワークフロー

なお、この機能は、写真のみに適用されて動画には適用されないとしました。

サードパーティに向けての開放

以上の2つの機能は、サードパーティにも提供されることも明らかにされています。これはすなわち、今後、InstagramやMessengerのようなiMessageやSMS以外のサービス、Google DriveDropboxのようなサービスでも同様の機能が使えるようになる可能性があることを意味しています。

ただし、いつ提供するかは明らかにされていません。

Siri

これに加えて、SiriとSpotlight検索でガイダンスを強化し、危険な状況を助けを得るのに役立つ追加のリソースを提供します。この変更は、iOS 15・iPadOS 15、watchOS 8、macOS Montereyで追加されます。

まずは米国から

これらの機能は、まず米国から開始されます。今後の展開はわかりませんが、少なくとも、法律等の関係から、日本に来るのはしばらく時間がかかりそう・・・かな?

ちなみに、iOS 15からはiOS 15にアップデートするか、iOS 14のままアップデートを受け取るかを選択できるようになっています。

関連リンク