オリジナルをテストしたところ、 ソニーα7 2014 年、私は写真の未来はミラーレスになると宣言しました。 私は間違っていた。 写真の未来はコンピューティングの世界です。この事実を理解するには、たとえ 1 日でも Google Pixel 2 を使って過ごすだけで十分です。
唯一のカメラとして休暇に持って行ったとき、数日間これを持って過ごしました。 のカメラ グーグルピクセル2 (そして ピクセル2XL)とても良いので魔法のように感じます。 これはカメラのハードウェア自体 (レンズやイメージセンサー) ではなく、むしろ Google のソフトウェアと処理によるものです。 おかげで 機械学習アルゴリズム そして先進的な HDR+ モードは数年前から Google 携帯電話に搭載されていますが、Pixel 2 は私がこれまで携帯電話で撮影した中で最も美しい写真を生成します。 スマートフォン. さらに、状況によっては、DSLR やカメラで撮影した多くの直接画像よりも優れた結果が得られることもあります。 ミラーレスカメラ.
確かに、レンズ交換式の大型カメラがなくなるわけではありません。 Google の計算アプローチには限界があり、交換できることに代わるものはありません。 違うレンズ。 しかし、Pixel 2 の価格は 650 ドルで、 ソニー RX100シリーズそして、ほとんどの人にとって、それは明らかに良い買い物です - 結局のところ、これで携帯電話全体が手に入るのです。
関連している
- Pixel 7a のカメラテストを行った - サムスンにとって悪いニュースだ
- この Pixel Watch 2 のリークにより、それが 2023 年のスマートウォッチになることが待ちきれません
- 古い Google Pixel をお持ちですか? このカメラテストをするとPixel 7aが欲しくなるでしょう
私たちはすでに Pixel 2 のカメラを宣伝してきましたが、この記事では、現役の写真家の視点からこのカメラが本当に「本物のカメラ」の代替品として機能するかどうかを見ていきます。
おすすめ動画
ダイナミックレンジが重要な理由
ダイナミックレンジ これは、写真家以外の人にとって画質の最も理解されていない側面かもしれません。 ほとんどの人は一般的にメガピクセルやノイズ/粒子さえも理解していますが、ダイナミック レンジは重要な要素の 1 つです 大型センサーのデジタル一眼レフカメラやミラーレスカメラと、 スマートフォン。
基本的に、より広いダイナミック レンジをキャプチャするカメラは、より広範囲のトーンを「見る」ことができます。 小型のカメラでは得られない、画像のシャドウとハイライトの詳細をより多く保持します。 切り取られた。 晴れた日に写真を撮ったことがある人なら、特にそのカメラが携帯電話やその他の小型オートフォーカスの場合、カメラのダイナミック レンジの制限に遭遇したことがあるでしょう。 これは、逆光の空に対して被写体が暗すぎること、または空が青ではなく真っ白に見えることとして現れることがあります。 カメラはシーン内の幅広いコントラストを補おうと最善を尽くしますが、どこかを犠牲にする必要があります。
Pixel 2 のカメラは魔法のように感じられるほど優れています。
Pixel 2 のセンサーにもこれと同じ問題がありますが、Google はソフトウェアでこの問題を回避しました。 HDR+ をオンにすると、カメラはハイライトを保持し、モーション ブラーを防ぐために露出時間を短くして写真を素早く連写します。 次に、画像を結合し、自動的に影を強調してディテールを復元します。
単一露光の写真ではシャドウを強調することができますが、そうするとノイズも強調されてしまいます。 Pixel 2 では処理する写真が複数あるため、影のノイズが平均化され、よりきれいな結果が得られます。 Googleには HDR+の徹底解説 仕組みについて詳しく知りたい場合は。
基本的なレベルでは、これは他のスマートフォンでの他の HDR モードの動作と似ていますが、Pixel 2 では信じられないほどうまく動作します。 このシステムは、平坦な画像になったり、サイケデリックで過剰な画像になったりすることなく、非常に広い色調範囲にわたってディテールを維持するのに十分な賢さを備えています。
単一レンズによるステレオ深度マッピング
多くの携帯電話には浅い写真を模倣する「ポートレートモード」がありますが、 被写界深度、ほとんどの場合、2 つの別々のレンズとセンサーを並べて使用することでこれを実現します。 これにより、私たちの目が周囲の世界の深さを認識するのと同じ方法で、携帯電話は 2 つの画像間の微妙な違いに基づいて深度マップを計算できます。 Pixel 2 にはカメラ モジュールが 1 つしかありませんが、同じ立体深度マップを生成できます。
- 1. 合成深度マップが適用される前の元の画像。 (写真: サム・クウェスキン/Google)
- 2. Google のステレオ アルゴリズムから生成された深度マップ。明るいほどカメラに近づきます。
- 3. 各ピクセルに適用されるぼかしを視覚化したもので、赤が明るいほどぼかしが大きくなります。
- 4. HDR+、セグメンテーション マスク、深度マップを組み合わせて生成された、被写界深度が浅い最終的な合成画像。
魔法? ほとんど。 Pixel 2 はオンチップ位相検出オートフォーカスを使用しています。これは、各ピクセルが実際には半分に分割されていることを意味します。 Googleは より詳細な説明 ポートレート モードがどのように機能するかについては説明しますが、基本的に、これらの分割ピクセルは、深度マップを作成するのに十分なステレオ分離を提供します。
これにより、許容距離内のあらゆる被写体を浅い被写界深度で撮影できますが、ポートレートの場合はさらに一歩進んでいます。 ニューラル ネットワーク内の数百万枚のサンプル写真でトレーニングされた AI を使用して顔を認識し、写真内のぼかしが適用される場所の精度を向上させます。
実際のところ、Pixel 2 のポートレート モードには他のスマートフォンと同じような矛盾点がありますが、ほとんどの場合、それがまったく機能することに感心しています。 AI と処理能力が向上するにつれて、被写界深度制御に対するこの計算的アプローチはさらに改善され、最終的には DSLR やミラーレス カメラを上回る利点がもたらされる可能性があります。 つまり、計算上行われたものはすべて、理論的には事後に制御または削除できます。 被写界深度や主観的なぼかしの質さえもポストで変更できるため、クリエイティブなコントロールの新たな道が開かれます。
ピクセルは千の言葉に匹敵する
Pixel 2 (およびその兄弟である Pixel 2 XL) が最高のスマートフォンであるかどうかは議論の余地がありますが、間違いなく最高のスマートフォンの 1 つです。
私はまだミラーレスキットを使い続けるつもりですが、Pixel 2 は写真の未来はハードウェアではなくソフトウェアであることを証明しています。
編集者のおすすめ
- Pixel FoldのカメラはGalaxy Z Fold 4に勝てるでしょうか? 分かりました
- Google Pixel Watch 2: 噂の価格、発売日、ニュースなど
- Google は完璧な Pixel スマートフォンを開発できる - ひとつだけ変えることができれば
- Google Pixel Watch 2は予想よりもずっと早く発売されるかもしれない
- OnePlus 11は厳しいカメラテストでPixel 7に勝つことができるでしょうか? 分かりました
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。