Cách đây không lâu, những gã khổng lồ công nghệ như Apple và Samsung đã ca ngợi về số megapixel mà họ đang cố nhồi nhét vào máy ảnh trên điện thoại thông minh, với mục đích làm cho hình ảnh rõ ràng hơn. Còn ngày nay, tất cả các nhà sản xuất thiết bị cầm tay đang chuyển trọng tâm sang thuật toán, trí tuệ nhân tạo và các cảm biến đặc biệt để làm cho những bức ảnh của người dùng trông thêm phần ấn tượng.
Điều đó có nghĩa là: Điện thoại của chúng ta đang làm việc ngày càng chăm chỉ để làm cho ảnh trông đẹp hơn, với nỗ lực tối thiểu cần có từ người dùng.
Đêm qua, Google đã cho thấy nỗ lực mới nhất của mình để làm cho máy ảnh trở nên thông minh hơn nữa. Công ty đã tiết lộ Pixel 4 và Pixel 4 XL, phiên bản mới của dòng smartphone phổ biến nhất của mình, với hai kích cỡ màn hình. Mặc dù chúng bị bao gồm các tính năng phần cứng mới - như ống kính camera thứ hai và khả năng máy quét khuôn mặt hồng ngoại để mở khóa điện thoại - Google đã nhấn mạnh thiết bị của mình sử dụng thứ được gọi là nhiếp ảnh tính toán, khả năng tự động xử lý hình ảnh để sản phẩm cuối cùng trông chuyên nghiệp hơn.
Nhiếp ảnh tính toán là khái niệm đề cập đến các kỹ thuật chụp và xử lý ảnh kỹ thuật số, sử dụng tính toán kỹ thuật số thay vì các quy trình quang học.
Cụ thể, trong số các tính năng mới của Pixel 4 có chế độ chụp bầu trời đêm và chụp ảnh các ngôi sao. Và bằng cách thêm ống kính phụ, Google đã tăng cường một tính năng phần mềm có tên Super Res Zoom, cho phép người dùng phóng to hơn hình ảnh mà không mất nhiều chi tiết.
Apple cũng nhấn mạnh tính năng chụp ảnh tính toán vào tháng trước khi giới thiệu ba chiếc iPhone mới. Một tính năng chưa được phát hành mang tên Deep Fusion, sẽ xử lý hình ảnh để tạo ra một sản phẩm cuối cùng có độ chi tiết đáng kinh ngạc, với dải tương phản động lớn và độ nhiễu hạt (noise) rất thấp.
Google Pixel 4.
Vậy bức tranh lớn mà các nhà sản xuất đang muốn vẽ ra trước mắt bạn là gì? Đó là khi bạn chụp ảnh kỹ thuật số, bạn không thực sự chụp ảnh nữa.
"Hầu hết các bức ảnh bạn chụp ngày nay không phải là một bức ảnh, cái mà bạn nhấp vào nút chụp và ghi lại khoảnh khắc", Ren Ng, giáo sư khoa học máy tính tại Đại học California, Berkeley cho biết. "Ngày nay, nó cần một loạt hình ảnh và tính toán tất cả dữ liệu đó vào một bức ảnh cuối cùng."
Nhiếp ảnh tính toán đã có từ nhiều năm trước. Một trong những hình thức đầu tiên là HDR, cho ra hình ảnh với dải động cao, bằng cách chụp một loạt ảnh ở các mức phơi sáng khác nhau và pha trộn các phần tốt nhất của chúng thành một hình ảnh tối ưu.
Trong vài năm qua, nhiếp ảnh tính toán đã trở nên phức tạp hơn, nhanh chóng cải thiện các bức ảnh được chụp trên điện thoại của chúng ta. Hãy cùng xem xét sự khác biệt này một cách chi tiết hơn, trên Google Pixel 4 vừa ra mắt.
Ảnh thiên văn
Năm ngoái, Google đã giới thiệu chế độ Night Sight, làm cho những bức ảnh được chụp trong điều kiện ánh sáng yếu được hiển thị như thể chúng được chụp trong điều kiện bình thường, mà không cần đèn flash. Kỹ thuật này được tạo ra bằng cách chụp một loạt ảnh với độ phơi sáng ngắn và ghép lại chúng thành một hình ảnh tổng thể.
Với Pixel 4, Google đang áp dụng một kỹ thuật tương tự cho các bức ảnh về bầu trời đêm. Đối với loại ảnh thiên văn này, máy ảnh sẽ tự phát hiện và chuyển đổi chế độ khi trời rất tối và chụp một loạt ảnh ở các mức phơi sáng rất dài để thu được nhiều ánh sáng hơn. Kết quả là chúng ta có một bức ảnh mà trước đây chỉ có thể được thực hiện với máy ảnh chuyên nghiệp cùng bộ ống kính cồng kềnh đi kèm.
Những chiếc iPhone mới của Apple cũng giới thiệu một chế độ chụp ảnh trong điều kiện ánh sáng yếu, sử dụng một phương pháp tương tự. Khi máy ảnh phát hiện thấy một điều kiện chụp hình được cài đặt rất tối, nó sẽ tự động chụp nhiều ảnh và hợp nhất chúng lại với nhau, đồng thời điều chỉnh màu sắc và độ tương phản.
Chế độ chân dung
Một vài năm trước, các nhà sản xuất điện thoại như Apple, Samsung và Huawei đã giới thiệu các chế độ chụp chân dung chuyên biệt, còn được gọi là "hiệu ứng bokeh", bằng cách làm sắc nét một đối tượng ở nền trước và làm mờ hậu cảnh. Hầu hết các nhà sản xuất điện thoại đã sử dụng hai ống kính làm việc cùng nhau để tạo hiệu ứng này.
Hai năm trước với Pixel 2, Google cũng tạo ra được hiệu ứng tương tự với chỉ một ống kính duy nhất. Phương pháp của hãng chủ yếu dựa vào học máy, tức là máy tính phân tích hàng triệu hình ảnh để nhận ra những gì quan trọng trong một bức ảnh. Chiếc smartphone sau đó đưa ra dự đoán về các phần nào của bức ảnh nên sắc nét và tạo ra một lớp "mặt nạ" xung quanh nó. Một cảm biến đặc biệt bên trong máy ảnh, đã giúp phân tích khoảng cách giữa các đối tượng và máy ảnh để làm cho hình ảnh mờ trở nên trông thật hơn.
Và với Pixel 4, Google cho biết, nó đã cải thiện khả năng chế độ chân dung này hơn nữa. Ống kính thứ hai mới sẽ cho phép máy ảnh thu được nhiều thông tin hơn về độ sâu, giúp nó chụp được các đối tượng với chế độ dọc từ khoảng cách xa hơn.
Zoom chất lượng cao
Trước đây, việc phóng to hình ảnh bằng máy ảnh kỹ thuật số thực tế là điều cấm kỵ, vì hình ảnh chắc chắn sẽ trở nên rất nhiễu và chỉ một rung động nhỏ của tay khi thao tác cũng sẽ tạo ra bóng mờ. Google đã sử dụng phần mềm để giải quyết vấn đề này vào năm ngoái, trên dòng smartphone Pixel 3, với cái mà nó gọi là Super Res Zoom.
Kỹ thuật này tận dụng các cử động rung tay tự nhiên để chụp một loạt ảnh ở các vị trí khác nhau. Bằng cách kết hợp từng bức ảnh hơi khác nhau, phần mềm của máy sẽ tạo ra một bức ảnh với đầy chi tiết, thứ mà không thể tạo ra với hệ thống zoom kỹ thuật số thông thường.
Còn với ống kính mới của Pixel 4, khả năng Super Res Zoom được mở rộng hơn bằng cách điều chỉnh để phóng to, tương tự như ống kính zoom trên máy ảnh phim. Nói cách khác, bây giờ máy ảnh sẽ tận dụng cả tính năng phần mềm và ống kính quang học để phóng to mà không làm ảnh mất chi tiết.
Chúng ta có thể mong đợi điều gì?
"Nhiếp ảnh tính toán là toàn bộ lĩnh vực nghiên cứu về khoa học máy tính", tiến sĩ Ng, giáo sư ở đại học Berkeley, chuyên giảng dạy các khóa học về chủ đề này cho biết. Ông nói rằng mình và các sinh viên đang nghiên cứu các kỹ thuật mới như khả năng áp dụng hiệu ứng trong chế độ chụp chân dung vào quay video.
Ví dụ, giả sử hai người trong một video đang có một cuộc trò chuyện và bạn có thể điều chỉnh máy ảnh tự động tập trung vào bất cứ ai đang nói. Với máy quay thông thường, việc đó không dễ bởi bạn không thể được dự đoán trước người nào sẽ lên tiếng. Nhưng với nhiếp ảnh tính toán, máy ảnh có thể ghi lại tất cả các cảnh quay, sau đó sử dụng trí thông minh nhân tạo để xác định người nào đang nói và áp dụng các hiệu ứng lấy nét tự động sau đó. Video cuối cùng mà bạn xem sẽ có sự chuyển trọng tâm giữa hai người khi họ thay phiên nhau cất tiếng.
"Đây là những ví dụ về các khả năng hoàn toàn mới và đang nổi lên trong giới nghiên cứu, có thể thay đổi hoàn toàn những gì chúng ta nghĩ về những điều không tưởng", tiến sĩ Ng chia sẻ.
Tham khảo NYTimes