Różnice w zdjęciach makro wykonanych iPhonem 16 mogą być bardziej związane z oprogramowaniem niż ze sprzętem

cyberfeed.pl 1 miesiąc temu


Ponieważ pogoda nie sprzyjała robieniu zdjęć na zewnątrz, postanowiłem zacząć od iPhone 16 Pro Max możliwości fotografii makro w porównaniu do swojego poprzednika.

Zasadniczo zdjęcia makro wykonane tegorocznym telefonem powinny być o wiele bardziej szczegółowe, biorąc pod uwagę nowy czujnik 48 MP. Jednak różnice między nimi nie są ogromne i podejrzewam, iż mają więcej wspólnego z przetwarzaniem niż rozdzielczością czujnika…

Zrozumienie kompromisów związanych z megapikselami

Przez wiele lat Apple opierało się wojnie o megapiksele. Podczas gdy marki Androida od dawna zachwalały aparaty 50 MP, a choćby 100 MP, Apple przez długi czas stanowczo trzymało się 12 MP.

Istnieje ku temu dobry powód. Zakładając, iż wszystkie inne czynniki są takie same, wyższa rozdzielczość oznacza wciśnięcie większej liczby pikseli do tego samego rozmiaru czujnika. Im mniejsze piksele, tym większy problem stanowi szum. To jest powód, dla którego wysokiej klasy lustrzanki cyfrowe oferowały niższą rozdzielczość niż niektóre telefony, ponieważ marki aparatów fotograficznych stawiają jakość pikseli ponad ilość.

Apple nie mógł jednak wiecznie opierać się tej grze, ponieważ dla konsumentów większa liczba musi oznaczać coś lepszego. Dlatego Apple przeszedł na główny czujnik 48 MP (nawet jeżeli niektórzy mogą mieć zastrzeżenia o liczbie) i dlaczego tegoroczne modele Pro mają także 48-megapikselowe czujniki w aparacie ultraszerokokątnym używanym do zdjęć makro.

Krótka uwaga na temat upraw 1:1

Aby zobaczyć wszystkie zdjęcia porównawcze, możesz kliknąć lub stuknąć, aby wyświetlić je w pełnym rozmiarze. Dostępne są również 100% przycięcia, pozwalające zobaczyć jakość w rozmiarze 1:1.

Bardzo rzadko zdarza się, aby analiza zdjęcia 1:1 miała jakiekolwiek znaczenie w świecie rzeczywistym. choćby jeżeli zamierzasz zrobić ogromny wydruk, widzowie zwykle zaczynają od nich, więc mało prawdopodobne jest, aby ktokolwiek przyłożył nos do płótna.

Dlatego tak dokładne oglądanie zdjęć jest potocznie nazywane pixel-peepingiem: to coś, co robią tylko maniacy fotografii. Ponieważ jest to konkretnie element porównawczy, istotne jest, aby zobaczyć, co dzieje się na tym poziomie szczegółowości. Ale osobiście oceniam jakość bardziej na podstawie tego, jak zdjęcia wyglądają, gdy ogląda się je w normalnym rozmiarze z normalnej odległości.

Zdjęcia porównawcze

To powiedziawszy, rzućmy okiem. Pierwsze zdjęcie to zbliżenie HomePoda.

iPhone 15 Pro Max:

iPhone 16 Pro Max:

A oto wycinki 1:1, najpierw iPhone 15, potem 16:

Tegoroczny aparat rejestruje zauważalnie więcej szczegółów i moim zdaniem widać to choćby przy normalnym oglądaniu.

Drugie zdjęcie trochę mnie zaskoczyło. Aparat z zeszłego roku jest głośniejszy niż tegoroczny.

iPhone 15 Pro Max:

iPhone 16 Pro Max:

I 100% przycinków, najpierw iPhone 15:

Mój bardzo silne podejrzenie jest takie, iż iPhone 16 ma o wiele bardziej agresywną redukcję szumów i wyostrzanie. Więc myślę, iż to mniej chodzi o czujnik, a bardziej o różnice w przetwarzaniu zdjęć.

Apple ma tendencję do zwiększania ilości domyślnego przetwarzania stosowanego na przestrzeni lat. Każdego roku zdjęcia stają się ostrzejsze, ustawienia HDR są wzmacniane, kolory są bardziej nasycone – a redukcja szumów jest zwiększona. Często nie jestem fanem tego.

Więc myślę, iż to właśnie się tu dzieje. W tym konkretny na przykład myślę, iż nowe przetwarzanie daje przyjemniejszy efekt.

Mam takie same podejrzenia co do kolejnego ujęcia, na którym myślę, iż ostrzejszy obraz z iPhone’a 16 Pro Max jest znów efektem przetwarzania.

iPhone 15 Pro Max:

iPhone 16 Pro Max:

I 100% przycięcia, najpierw starszym aparatem:

Być może zauważyłeś już pewien trend, a teraz przejdziemy do kolejnego przykładu – wydruku na płótnie.

iPhone 15 Pro Max:

iPhone 16 Pro Max:

I plony 1:1 w tej samej kolejności:

Na pierwszy rzut oka może się wydawać, iż nowszy model rejestruje więcej szczegółów, ale szczerze mówiąc, myślę, iż chodzi po prostu o większą ostrość i lepszą redukcję szumów.

Dokładnie to samo tutaj. iPhone 15 Pro Max:

iPhone 16 Pro Max:

A oto standardowa kolejność podglądania pikseli:

Na koniec, myślę, iż zbyt entuzjastyczne przetwarzanie dało w efekcie bardziej niewyraźny obraz w przypadku modelu 16.

iPhone 15 Pro Max:

iPhone 16 Pro Max:

Uprawy jeden do jednego w tej samej kolejności:

Wnioski

Chciałbym sobie wyobrazić, iż czujnik 48 MP rejestruje więcej szczegółów niż czujnik 12 MP, ale myślę, iż rzeczywistość jest taka, iż ​​Apple osiąga granice fizyki. Tak małe piksele mają o wiele więcej szumu i wymagają o wiele więcej przetwarzania, aby to zrekompensować. Naprawdę wierzę, iż większość różnic, które widzimy, jest wynikiem tego przetwarzania.

Oczywiście gusta są różne, a to, co oferuje Apple, to to, czego chce większość konsumentów. W fotografii telefonowej przeciętny użytkownik chce nasyconych, ostrych obrazów z jak największą ilością szczegółów cieni i jak najmniejszą ilością szumów – i to właśnie oferuje iPhone.

Jeśli jednak w grę wchodzi fotografia makro, efekty mogą się podobać lub nie, ale na pewno nie należy oczekiwać czterokrotnie większej szczegółowości.

Zdjęcie: 9to5Mac

FTC: Używamy linków afiliacyjnych generujących dochód. Więcej.



Source link

Idź do oryginalnego materiału