初代のiPhoneのカメラは200万画素、17年で著しく進化したカメラの歴史、いよいよお目見えする「iPhone 16」でどうなる?
iPhone 5からパノラマ撮影、iPhone 5sからはバーストモード(連写機能)を追加。iPhone 6からは長時間撮影を短く見せるタイムラプスや、スローモーション、iPhone 6sから写真の前後3秒を記録するLive Photos、そして最大30fpsの4K動画、光学手ブレ補正も搭載。iPhone 7 Plusからは望遠レンズの切り替え機能、ポートレートモードなどが追加されている。 iPhone 13では映画のようなシーンが撮れるシネマティックモードが追加されるなど、新しい撮影体験は最も力を入れてアピールされてきた。
“Pro”という名称が使われるようになり、広角レンズが追加されて3眼レンズを搭載したのはiPhone 11 Proからで、iPhone 12 ProではさらにLiDARという深度情報を獲得できるセンサーを搭載。ポートレートモードの性能が大きく向上した。現行モデルに至るまで、Proモデルで3眼のカメラの横にある黒い丸がLiDARセンサーである。 アップルは写真業界、映像業界、出版業界などと関わりが深いため、写真の仕上がりはクセの少ないニュートラルなものであることを重視し続けた。
彩度やコントラストを強くすると彩度が飽和したり、白飛びしたり、黒ツブレしたりした画像となり、後から加工が難しい。 しかし、iPhone Xの時代(2017年)から勢いを増してきたAndroidスマホは、彩度の鮮やかさと強めのコントラストで、いわゆる“映え”を意識した画質チューニングで人気が出始めた。ソフトウェアによる画像処理で、美顔モードなどを備え、目はパッチリ、肌はスベスベといった具合に“盛れる”のがSNS世代の需要と合致した。
アップルは、かたくなにその流れに乗らなかったが、iPhone 12 Proからソフトウェアによる画像処理自体は行うようになった。今日では当たり前のようにAIが処理している調整だ。 ■iPhone 12から“映え”に大きく舵を切った iPhone Xから搭載し、徐々に進化してきたNeural Engineを用いることで、瞬時に高度な画像処理が可能になった影響も大きい。遠方の風景は解像感を高く、空は青く抜けがよく、人肌はナチュラルにと、『何が写っているか?』をiPhoneが理解するようになったのだ。