Nishiki-Hub

国内外のPC/PCパーツ/スマホ/Appleなどの最新情報を取り上げています

【編集後記】iPhone X/8以前とiPhone XR以降の区別 ~ iOS 15で明確になった明らかな違い【note】

f:id:doskokimeil127-dosd:20210923132257p:plain

Appleが毎年リリースするiPhoneシリーズだが、年によっては外見そんなに差がないように見えても前モデルと大きな差が有り、いずれそれが大きな差になるというモデルがある。それは、主にiOSのアップデートによって追加される機能が使える・使えないに関わってくる問題である。

Point

この記事はnoteに2021年10月8日に投稿したものをNishiki-Hub向けに転載したものになっています。執筆した個人は同じです。原本はこちらからご覧いただけます。
iPhone X/8以前とiPhone XR以降の区別 ~ iOS 15で明確になった明らかな違い

モデル格差

Appleは1つの筐体デザインを複数年に渡って使用する。例えば、iPhone 6のデザインは、そのままのデザインでは後継であるiPhone 6sに、これをベースしたデザインはそれから4世代後のiPhone 8まで使われ、iPhone SEとして現在まで受け継がれている。

iPhoneがファンだけでなく世の中で大きな話題になるときは、デザインが大きく変わったタイミングであり、iPhone 6iPhone Xは大きな話題になった。iPhone 12も同様である。ただし、iPhone 6sのような、言ってしまえば「マイナーアップデート」と呼ばれるモデルは、フルモデルチェンジと呼ばれるiPhone 6などに比べると外見的な変更点が少なく、話題になりにくい。特にスマホの価格帯が7万とか8万を超えたあたりから「別に一世代前でもいいんじゃね」と言われる始末。実際、私の周りのiPhoneの詳しい部分には興味がない大学生の知人は皆口を揃えて「買い替えたいけどiPhone 13は高いからiPhone 12以前で」と言う。最近のアップデートでカメラや内面的な機能がアップグレードされているが、そもそもiPhone 12以前が圧倒的に高性能なカメラを積んでいて、実際にデモ機を触った程度では、その差はわかりにくく「iPhone 13何が変わったの・・・?」ということになってしまう。

おそらくは、一般的な消費者にとってiPhoneの内面的な新機能よりも、デザインが変わることが重要なのだろう。というか、まともに考えりゃそりゃそうだわな。

ただ、Appleもそれはわかってると思う。実際にS付モデルというのは、内面的な機能が割と充実している。iPhone 5iPhone 5sの間にはTouchIDや64bit化SoCなど、歴史的な大きな変更があった。6と6sの間には、3D Touchや12MPカメラの搭載、Live Photosなどが追加され、それらはそれなりに大きな話題となった。

今回、話題にしていくのは、iPhone 8/XとXS/XRの間の格差である。実際、iPhone XSiPhone Xのマイナーアップデート扱いである。

iPhone XS

iPhone 7/8デザインからiPhone X系統のデザインへの移行は、結構ぬるっといった。実際には若干Appleとしても失敗した部分があったのではないかと私は思う。

iPhone Xデザインは、iPhoneの伝統であった「ホームボタン」をなくすことで、議論をよんだ。無論、ホームボタンの廃止による画面占有率の向上というのは、小さな携帯電話という筐体でより多くの情報量を表示するために避けては通れないものだったが、消費者からすると、このiPhone史上最大の変更には拒絶感もあったのではないか。

前述の通りiPhone XSはどちらかと言うとiPhone Xのマイナーアップデートである。つまり、外面的な機能の追加よりも、内面的な機能の追加が多いということだ。実際、外面的な機能ではカラーとiPhone XS Maxの追加以外の変更点はなく、あえて言うなら0.数ミリレベルの筐体サイズの変更のみとなる。

では、内面的な変更とはどんなものなのだろうか。

Apple A12 Bionic

Apple A12 BionicはApple Aシリーズの中でも存在感のある大きなアップデートであると考えている。そのアップデート内容としては、7nmプロセスルールの採用と、Neural Engineの追加である。

Neural Engineの追加がその後の運命を大きく変えることになる。やや誇大な言い方をしてしまったが、実際iOS 15のリリースによってNeural Engineのある無しによって使える機能が大きく増減することとなった。

Neural Engine

そもそもNeural Engineとはどのようなものなのか。Neural EngineはAppleが独自で搭載するNPU(機械学習用のプロセスユニット)のようなものであり、ML Coreと並んでAppleが一押ししている機能である。Apple A12では。一秒間に5兆回もの演算が実行できるようになった。これはNeural Engine非搭載の前世代Apple A11の6000億回を大きく上回るものであり、大きな差となった。

Neural Engineは非常に大きな存在となっており、それまでiPhoneでは不可能だったシングルカメラでのポートレート撮影のほか、iPhone XS/XRの両方で被写界深度の撮影後に変更が可能になった。これの保存・処理方法としては、基本の写真に機械学習を利用して被写体を切り抜き、被写体以外の部分をぼかすという処理である。この処理方法は、iPhone 13のシネマティックモードに活用されている。そして、この被写体の切り抜きにNeural Engineが用いられている。

機械学習は、Appleに限らずCPUやGPU、そしてカメラの本来の性能を補完する目的で用いられることがある。

例えば、NVIDIAは独自の機械学習技術であるDeep Learning Super Sampling(DLSS)によってアップスケーリングやフレームレートの向上のほか、RTX 20番台では、第1世代でそこまで性能が良くなかったRTコアによるリアルタイムレイトレーシングをDLSSが補完している。DLSSを用いることにより、たとえそれ4K出力設定であっても、GPU自体はフルHD(1080p)解像度やHD(720p)解像度の処理をするだけで4Kを出力することができる。このように、GPUの性能を補完する目的で機械学習機能を強化している物もあり、これは機械学習を強化した副産物のようなものだろう。DLSS同様の技術はIntelがXe SSとして「Intel Arc」に搭載する。

スマホの処理能力には限界があると言われている。結局のところスマートフォンの筐体的に大規模なプロセッサを搭載できない上、消費電力的にもチップに限界がある。そのため、もとよりAppleQualcommは、SoCの中にアクセラレータを多数搭載することで機能を強化している。その1つがNeural Engineで、一部の処理を機械学習に任せる事によって、帯域や処理容量を増やそうとしている。

Appleにおいての機械学習の意味はおそらく「デバイスローカルでできること」の強化の重点が置かれている。実際、Neural Engineを用いられているものは、即時に必要なものはサーバーサイドで処理を実行するという従来の方法を用いれば可能であるほか、即時性がないのであれば時間をかけてならCPUで無理やり処理させることもできるだろう。しかし、Neural Engineを用いることで瞬時にローカルで処理する事ができる。つまり、従来サーバーサイド処理・ローカルサイド処理の利点を持ち合わせ、互いの欠点を打ち消しているといえばいいだろうか。

iOS 15

iOSのリリースには「iPhone XSiPhone XS MaxiPhone XR以降」という文言が12回用いられている。すなわち、iPhone XR/XS以降でしか使えない機能が12個実装されているということである。この12個全てがNeural Engineの有無に関係しているわけではないが、殆どがNeural Engineを求めている。ここにiPhone XS/XR以降を必要としている機能をピックアップし、Neural Engineが必要なものを太字で表示する。

  • 空間オーディオにより、グループFaceTime通話でほかの人の声が画面上のそれぞれの人の位置から聞こえるようにすることが可能
  • 周囲の雑音を遮断して、自分の声がはっきりと聞こえるようにする“声を分離”機能
  • 周囲のすべての音を通話に取り込めるワイドスペクトル機能
  • 背景をぼかして自分にピントを合わせることができるポートレートモード
  • 横断歩道、右左折車線、そして複雑なインターチェンジを案内する3D表示を街の地図に詳しく表示
  • 臨場感あふれる徒歩での経路案内で、ステップバイステップの経路案内を拡張現実で表示
  • インタラクティブな3D地球儀に、山岳地帯、砂漠、森林、海などの拡充した詳細情報を表示
  • ホームキーを追加して、対応している自宅やマンションのドアの鍵をタップして解錠可能
  • ライブプレビューでのコピー&ペースト、“調べる”、翻訳が可能
  • 太陽の位置、雲、降水量をより正確に表すことができる新しいアニメーションの背景
  • Siriへのリクエストの音声はデバイス上で処理されるので、特に設定しなくてもこのデータがデバイスの外に出ることはなく、オフラインでもSiriで多くのリクエストを処理することが可能
  • バイス上でのパーソナライズにより、Siriの音声認識と理解能力が各ユーザに合わせて向上

iOS 15の目立つ機能として、通話時のポートレートノイズキャンセリング機械学習を用いた機能であるのはもはや言うまでもないと思う。無論これらの機能は、瞬時の処理が求められるためNeural Engineが前提の機能となっている。

その上、iPadiPad miniに新たに追加された「センターフレーム」も、被写体を機械学習で切り出したものを使っている。これもNeural Engineが用いられている。

その他、セキュリティやプライバシーの向上という理由で、Siriがローカル処理できるようになった。これもNeural Engineを利用した実績ということになる。

ひとえにiPhone 8iPhone XRの機能の差はNeural Engineの有無がすべてというわけではない・Apple A12はA11と比べて飛躍的に性能が向上した世代であり、A11では目標の体験が得られないという理由で使えないという機能もあるのだろう。実際、マップの云々はNeural Engineはさほど関係なく、GPU性能が必要な機能だった。

Apple A12は序盤においてお伝えしたとおり、Apple Siliconの中でも重要なマイルストーンを迎えたわけであり、これを境に使える機能の有無は出てくるのは仕方のないことである。

最新のiPhoneを買えとは言わないが、中古や型落ちのiPhoneを買うとしても、こうした機能の充実を求めるならiPhone XR以降の購入をおすすめする。

関連リンク