間もなくiPhone 6Sが発売される。これに伴い、通信オペレータのKDDIとソフトバンクは25日の朝7時40分、35分からの取材案内を流している。テレビ局や新聞は、一斉に書き立てることだろう。さらに、発売後すぐにこの製品を分解して、どのような部品が使われているかを調べる「ティアダウン」(分解)もサードパーティから発表されるであろう。アップルが公表しているテクノロジーで、すでに今から推定できる技術を解説してゆこう。

iPhone 6Sの性能を左右するのは半導体チップであり、その心臓部にはアプリケーションプロセッサ(APU: application processing unit)と呼ばれるシステムLSI、A9がまず鎮座する。APUは、マイクロプロセッサであるCPU回路(CPUコアと呼ばれる)、グラフィックス性能を決めるGPU(Graphic processing unit)回路、ビデオ(動画映像)を少ないデータ量に圧縮するエンコーダとそれを伸長するデコーダを集積したコーデック回路、さらにWi-FiやBluetooth近距離通信回路やさまざまな機器をつなぐためのインタフェース回路、その他独自の使用を決める周辺専用回路、などからなっている。それもデータバスが64ビットというアーキテクチャだが、これはiPhone 5Sが登場した時に、それまでの32ビットから64ビットに変わった。iPhone 6ではA8という名称のAPUが使われてきたため、iPhone 6SではA9に変わる。APUはウェブブラウジングや検索、データ処理、制御処理などのジョブを一挙に引き受ける。

APUにはこれまで最小線幅20nmでシリコン回路を作るプロセス技術が使われていた。iPhone 6がこの技術だ。今回のiPhone 6S内のCPU性能は最大70%、GPU性能は最大90%高速化した、と謳っているため、14nm FinFET技術が使われていることはほぼ間違いない。FinFET技術はトランジスタ(FET:電界効果トランジスタという)を微細にして性能を上げてもリーク電流が少なく、待機時(スマホでは待ち受け時)の消費電流が少なくなるという特長がある。このため電池は長持ちする。FinFETは半導体内部を3次元的に3方向から空乏層と呼ばれる一種の絶縁層で電流パスをふさいでしまおうという技術で、従来は1方向からしか電流パスをふさぐことができなかったために、リーク電流を完全にふさぐことができなかった。

FinFETプロセスは、Fin(魚のひれという意味)という3次元構造をシリコン上で形成しなければならず、歩留まりを上げることが難しかった。特に垂直にまっすぐシリコンの壁を物理的に、しかも数億トランジスタ全体に均一に形成しなければならない。このためTSMCやサムスン、グローバルファウンドリーズなど、半導体製造専門の企業は苦労を重ねて歩留まり向上に努めてきた。ようやく、歩留まり向上のメドが付き、今は各社とも次世代の10nmプロセスの安定生産に向けて、設計専門メーカー(ファブレスやIPベンダー)との親和性や実証を確認できるようになっている。

ただし、LSIチップ上ではトランジスタの性能だけを上げてもチップ全体の性能は上がらない。配線を微細化すると、CPUコアやROM、RAM、GPUコア、コーデック等の回路をつなぐ配線による寄生抵抗や寄生容量が無視できなくなり、動作速度が落ち消費電力を下げられず、正常な動作が難しくなる。しかも長時間電流を流していると配線材料の銅やアルミの原子の塊が配線上を動いてボイド(空隙)を作り断線に至るエレクトロマイグレーション/ストレスマイグレーションという信頼性問題も出てくる。このため、通信技術の中継器(リレー)やクロスバースイッチのような技術が使われるようになってきた。これにより、CPUコア内の配線とコア間を結ぶ配線のロスを低減できるようになった。A9の14nmFinFETプロセスでは配線が大きなカギとなる技術の一つになる。

アップルの特長はたくさんのセンサを使っていること。このためMシリーズと呼ばれるセンサ専用コプロセッサもある。コプロセッサとはCPUプロセッサと協調しながら、CPUへの負荷を減らす回路である。これもiPhone 5Sから導入された。今回はM9になる。搭載されるセンサには、XYZ軸に沿う加速度センサ、XYZ面の回転を検出するジャイロセンサ、気圧を検出する圧力センサ、地磁気を検出するXYZ磁気センサなどがある。センサは電気以外の物理量を電気信号に変換する素子である。これらのセンサでは、加速度や回転、磁気などを変換する電気信号は極めて小さいため、外来ノイズに弱く、増幅したりインピーダンスを変換したりする必要がある。さらにセンサごとにそれらの値は全く違うため、センサ信号を受けて処理する専用の回路が必要となる。Mシリーズはセンサのアナログ信号をデジタルに変換し、さらにセンサの意味をつかみ取る回路までを含めた一種のマイコンである。このようなセンサからの信号処理回路を最近はセンサハブと呼び、これから重要な半導体チップとして注目されている。

iPhone 6Sでは、新たに触覚センサとも言うべきマルチタッチ技術が採用される。これは圧力センサを使って、アナログ的にディスプレイ画面を押した深さによって、新たにコマンドを実行できるようにしたもの。画面を押す深さによってスマホを操作できるようにする。画面を押す深さを検出するセンサには静電容量方式を使っている。Peek(のぞき見)やpop(ポンとはじけるような仕種)と呼ぶ機能を新たに追加するとアップルは言っている。これらの機能は、あるアイコンを強く押すとその情報の詳細を表示したり、写真なら拡大させたり、LINEなどのSNS情報を表示したりするモノ。

このUI(ユーザーインタフェース)には、6月の開発者会議で発表されたプロアクティブアシスタント(Proactive Assistant)機能が搭載されている。これは、これまでのユーザーの行動に加えて、次の動作を予め予想して表示してくれる機能だ。アマゾンには以前購入した本のリストが表示されるように、ユーザーの行動を予め予測する機能を最近、コンテキストアウェアネス(Context Awareness)と呼ぶ。コンテキストは文脈、アウェアネスは知ること・理解すること、という意味である。グーグルにはGoogle Nowという機能がある。今回のプロアクティブアシスタント機能もその流れだ。

最後にGPUについても触れておこう。グラフィックスプロセッサGPUは、文字通り、絵を描いて色を塗っていく専用のプロセッサである。絵を描く場合にはまずデッサンを描きさらに詳細部分を描く訳だが、書くべき絵のデータを記憶しているメモリとのやり取りがとても多い。この手法がスーパーコンピュータにも使われるようになってきている。iPhone 6Sでは90%もの性能が上がったことから、イマジネーションテクノロジーズが昨秋発表された新型GPUのPOWERVRシリーズ7というIPコアではないかと推測する。これまでのPOWERVRは20~40%アップのスピードで性能を向上させてきたが、シリーズ7ではアーキテクチャを変え、性能をほぼ倍増させたからだ。

イマジネーション以外のGPUコアでは、スマホに集積できるほど消費電力が低いアーキテクチャはまだない。nVidiaやAMDのGPUはデスクトップコンピュータに使われており、200W~400Wと消費電力は大きい。GPUでは、デッサンや詳細描画の描き方、色の塗り方のアルゴリズムをどう簡略化しながら美しさを保つか、がカギとなる。イマジネーションはそのノウハウを持っており、次は光の陰影をもっとくっきりと表現できるRay-Tracing技術も市場へ間もなく出してくる。もはや写真かグラフィックスか区別できないほどきれいな映像が、デスクトップコンピュータだけではなく、スマホでも手に入るようになる。この機能はおそらくiPhone 7かiPhone 7Sに導入されるだろう。

(2015/9/20)