เมื่อฉันทดสอบต้นฉบับ โซนี่ A7 ในปี 2014 ฉันประกาศว่าอนาคตของการถ่ายภาพจะไม่มีกระจกสะท้อน ฉันผิดไป. อนาคตของการถ่ายภาพนั้นขึ้นอยู่กับการคำนวณ และการใช้เวลาเพียงวันเดียวกับ Google Pixel 2 ก็เพียงพอแล้วที่จะทำความคุ้นเคยกับข้อเท็จจริงนี้
ฉันใช้เวลาหลายวันกับมันเมื่อเอามันไปเที่ยวพักผ่อนเป็นกล้องตัวเดียวของฉัน กล้องใน กูเกิลพิกเซล 2 (และ พิกเซล 2 XL) ดีมากจนรู้สึกเหมือนมีมนต์ขลัง ไม่ใช่ฮาร์ดแวร์ของกล้อง (เลนส์และเซ็นเซอร์ภาพ) ที่ให้เครดิตในเรื่องนี้ แต่เป็นซอฟต์แวร์และการประมวลผลของ Google ขอบคุณ อัลกอริธึมการเรียนรู้ของเครื่อง และขั้นสูง เอชดีอาร์+ โหมดที่มีอยู่ในโทรศัพท์ Google มาสองสามปีแล้ว Pixel 2 ให้ภาพที่สวยที่สุดที่ฉันเคยถ่ายมา สมาร์ทโฟน. ยิ่งไปกว่านั้น ในบางสถานการณ์ยังให้ผลลัพธ์ที่ดีกว่าภาพที่ถ่ายจากกล้องโดยตรงด้วยกล้อง DSLR หรือ กล้องมิเรอร์เลส.
แน่นอนว่ากล้องขนาดใหญ่ที่มีเลนส์แบบเปลี่ยนได้จะไม่ไปไหน — ยังคงมีอยู่ ข้อจำกัดของแนวทางการคำนวณของ Google และไม่มีอะไรทดแทนความสามารถในการแลกเปลี่ยนได้ เลนส์ที่แตกต่างกัน แต่ที่ราคา 650 ดอลลาร์ Pixel 2 มีราคาที่จะแข่งขันกับกล้องคอมแพคขั้นสูงเช่น
โซนี่ RX100 ซีรีส์และสำหรับคนส่วนใหญ่ การซื้อจะดีกว่าอย่างเห็นได้ชัด เพราะท้ายที่สุดแล้วคุณจะได้โทรศัพท์ทั้งเครื่องที่เกี่ยวข้อง
- ฉันทำการทดสอบกล้อง Pixel 7a – และนี่เป็นข่าวร้ายสำหรับ Samsung
- การรั่วไหลของ Pixel Watch 2 นี้ทำให้เป็นนาฬิกาอัจฉริยะปี 2023 ที่ฉันรอไม่ไหวแล้ว
- มี Google Pixel รุ่นเก่าไหม? การทดสอบกล้องนี้จะทำให้คุณอยากได้ Pixel 7a
เราได้กล่าวถึงกล้องของ Pixel 2 แล้ว แต่สำหรับบทความนี้ ฉันกำลังพิจารณาจากมุมมองของช่างภาพที่ทำงานอยู่ และดูว่ากล้องดังกล่าวสามารถทำหน้าที่เป็นตัวทดแทน "กล้องจริง" ได้จริงหรือไม่
วิดีโอแนะนำ
เหตุใดช่วงไดนามิกจึงมีความสำคัญ
ช่วงไดนามิก อาจเป็นแง่มุมที่เข้าใจน้อยที่สุดเกี่ยวกับคุณภาพของภาพในหมู่ผู้ที่ไม่ใช่ช่างภาพ โดยทั่วไปคนส่วนใหญ่เข้าใจเมกะพิกเซลและแม้กระทั่งสัญญาณรบกวน/เกรน แต่ช่วงไดนามิกเป็นหนึ่งในกุญแจสำคัญ ด้านคุณภาพของภาพที่แยกกล้อง DSLR เซนเซอร์ขนาดใหญ่หรือกล้องมิเรอร์เลสออกจากสิ่งที่ต้องการ เช่น สมาร์ทโฟน
โดยพื้นฐานแล้ว กล้องที่จับช่วงไดนามิกได้มากกว่าจะสามารถ "มองเห็น" ช่วงโทนเสียงที่กว้างขึ้น รักษารายละเอียดในส่วนเงาและส่วนไฮไลท์ของภาพที่กล้องขนาดเล็กจะมีมากขึ้น ถูกตัด หากคุณเคยถ่ายภาพในวันที่มีแสงแดดจ้า คุณอาจประสบปัญหาช่วงไดนามิกจำกัดของกล้องของคุณ โดยเฉพาะอย่างยิ่งหากกล้องนั้นเป็นโทรศัพท์หรือกล้องเล็งแล้วถ่ายขนาดเล็กอื่นๆ สิ่งนี้อาจปรากฏขึ้นเมื่อตัวแบบของคุณมืดเกินไปเมื่อเทียบกับท้องฟ้าที่มีแสงด้านหลัง หรือในขณะที่ท้องฟ้าปรากฏเป็นสีขาวบริสุทธิ์แทนที่จะเป็นสีน้ำเงิน กล้องพยายามอย่างดีที่สุดเพื่อชดเชยช่วงคอนทราสต์ที่กว้างในฉาก แต่ก็ต้องเสียสละที่ไหนสักแห่ง
กล้องใน Pixel 2 ดีมากจนให้ความรู้สึกเหมือนมหัศจรรย์
เซ็นเซอร์ใน Pixel 2 มีปัญหาเดียวกันนี้ แต่ Google ได้แก้ไขด้วยซอฟต์แวร์แล้ว เมื่อเปิด HDR+ กล้องจะถ่ายภาพต่อเนื่องอย่างรวดเร็ว โดยแต่ละภาพมีเวลาเปิดรับแสงสั้นเพื่อรักษาไฮไลต์และป้องกันภาพเบลอ จากนั้นจะรวมภาพเข้าด้วยกันและเพิ่มเงาโดยอัตโนมัติเพื่อเรียกคืนรายละเอียด
แม้ว่าการเพิ่มเงาสามารถทำได้ในภาพถ่ายแบบเปิดรับแสงครั้งเดียว แต่การทำเช่นนี้จะส่งผลให้มีสัญญาณรบกวนเพิ่มมากขึ้นด้วย เนื่องจาก Pixel 2 มีรูปถ่ายหลายรูปให้ใช้งาน เสียงเงาจึงถูกเฉลี่ยออกมา และคุณจะได้ผลลัพธ์ที่สะอาดยิ่งขึ้น Google มี คำอธิบายเชิงลึกของ HDR+ หากคุณสนใจที่จะเรียนรู้เพิ่มเติมเกี่ยวกับวิธีการทำงาน
ในระดับพื้นฐานสิ่งนี้คล้ายกับการทำงานของโหมด HDR อื่น ๆ ในโทรศัพท์รุ่นอื่น ๆ แต่มันทำงานได้ดีอย่างเหลือเชื่อบน Pixel 2 ระบบฉลาดพอที่จะรักษารายละเอียดในช่วงโทนสีที่กว้างมาก โดยไม่ส่งผลให้ภาพแบนหรือกระโดดเข้าสู่อาการประสาทหลอน เกิน
การทำแผนที่เชิงลึกสเตอริโอจากเลนส์เดี่ยว
ในขณะที่โทรศัพท์หลายรุ่นมี "โหมดแนวตั้ง" ที่เลียนแบบความตื้นเขิน ความชัดลึกทำได้สำเร็จโดยส่วนใหญ่โดยใช้เลนส์และเซ็นเซอร์สองตัวแยกกันที่วางเรียงกัน ซึ่งช่วยให้โทรศัพท์สามารถคำนวณแผนที่เชิงลึกโดยพิจารณาจากความแตกต่างเล็กน้อยระหว่างสองภาพ ในลักษณะเดียวกันกับวิธีที่ดวงตาของเรารับรู้ความลึกในโลกรอบตัวเรา Pixel 2 มีโมดูลกล้องเพียงตัวเดียว แต่ยังสามารถสร้างแผนที่ความลึกสามมิติที่เหมือนกันได้
- 1. รูปภาพต้นฉบับก่อนใช้แผนที่ความลึกสังเคราะห์ (ภาพ: Sam Kweskin/Google)
- 2. แผนที่ความลึกที่สร้างจากอัลกอริธึมสเตอริโอของ Google ไฟแช็กอยู่ใกล้กล้องมากขึ้น
- 3. การแสดงภาพเบลอที่ใช้กับแต่ละพิกเซล ยิ่งสีแดงยิ่งสว่างก็ยิ่งเบลอมากขึ้น
- 4. ภาพระยะชัดตื้นสังเคราะห์ขั้นสุดท้าย สร้างขึ้นโดยการรวม HDR+ มาสก์การแบ่งส่วน และแผนที่ความลึก
มายากล? เกือบ. Pixel 2 ใช้โฟกัสอัตโนมัติการตรวจจับเฟสบนชิป ซึ่งหมายความว่าแต่ละพิกเซลจะถูกแบ่งครึ่งจริงๆ Google มี คำอธิบายที่ละเอียดมากขึ้น เกี่ยวกับวิธีการทำงานของโหมดแนวตั้ง แต่โดยพื้นฐานแล้ว พิกเซลแบบแยกเหล่านี้ให้การแยกสเตอริโอเพียงพอที่จะสร้างแผนที่เชิงลึก
ซึ่งช่วยให้สามารถถ่ายภาพวัตถุใดๆ ในระยะชัดลึกที่ตื้นภายในระยะที่อนุญาต แต่สำหรับการถ่ายภาพบุคคล โทรศัพท์จะก้าวไปอีกขั้นหนึ่ง ใช้ AI ที่ได้รับการฝึกมากับภาพถ่ายตัวอย่างหลายล้านภาพในโครงข่ายประสาทเทียมเพื่อจดจำใบหน้า ปรับปรุงความแม่นยำของจุดเบลอในภาพถ่าย
ในทางปฏิบัติ โหมดแนวตั้งของ Pixel 2 มีความไม่สอดคล้องกันเหมือนกับสมาร์ทโฟนอื่นๆ แต่ส่วนใหญ่ ฉันประทับใจที่มันใช้งานได้เลย เมื่อ AI และพลังการประมวลผลดีขึ้น วิธีการคำนวณเพื่อควบคุมระยะชัดลึกจะดียิ่งขึ้น และในที่สุดก็อาจมีข้อได้เปรียบเหนือกล้อง DSLR หรือกล้องมิเรอร์เลส กล่าวคือ สิ่งใดก็ตามที่ทำโดยการคำนวณสามารถควบคุมหรือลบออกได้ในทางทฤษฎีหลังจากข้อเท็จจริงแล้ว ระยะชัดลึกและแม้แต่คุณภาพเชิงอัตนัยของความเบลอสามารถเปลี่ยนแปลงได้ในโพสต์ ซึ่งเปิดช่องทางใหม่ในการควบคุมการสร้างสรรค์
พิกเซลมูลค่าหนึ่งพันคำ
เป็นที่ถกเถียงกันว่า Pixel 2 (และ Pixel 2 XL ซึ่งเป็นพี่น้องที่ใหญ่กว่า) เป็นสมาร์ทโฟนที่ดีที่สุดหรือไม่ แต่แน่นอนว่าเป็นหนึ่งในสมาร์ทโฟนที่ดีที่สุด
ฉันยังคงใช้ชุดมิเรอร์เลสของฉัน แต่ Pixel 2 พิสูจน์ว่าซอฟต์แวร์ไม่ใช่ฮาร์ดแวร์คืออนาคตของการถ่ายภาพ
คำแนะนำของบรรณาธิการ
- กล้องของ Pixel Fold สามารถเอาชนะ Galaxy Z Fold 4 ได้หรือไม่? ฉันพบ
- Google Pixel Watch 2: ราคาข่าวลือ, วันที่วางจำหน่าย, ข่าวสารและอื่น ๆ
- Google สามารถสร้างโทรศัพท์ Pixel ที่สมบูรณ์แบบได้ หากมีการเปลี่ยนแปลงสิ่งหนึ่ง
- Google Pixel Watch 2 อาจเปิดตัวเร็วกว่าที่เราคิดไว้มาก
- OnePlus 11 สามารถเอาชนะ Pixel 7 ในการทดสอบกล้องที่ยากลำบากได้หรือไม่? ฉันพบ
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร