HDR to ostatnio jeden z większych przełomów jaki wydarzył się w świecie reprodukcji obrazu – stał się już technologią powszechną w video a za chwilę wejdzie szeroką drogą w świat fotografii (o czym nieco później)

Aby jednak przedstawić ten tamat w miarę zrozumiale chciałbym zacząć od prostego przekazu podstaw. Zacznijmy od tego, że w przestrzeni fotografii panują dalej dwa, zupełnie rozdzielne, pojęcia HDR. To pierwsze, znane już od bardzo dawna i wciąż dostępne w menu naszych aparatów tyczy się techniki zwężającej rozpiętość tonalną obrazów naturalnych do wąskiej rozpiętości dostarczanej nam przez format JPG czy jakikolwiek inny 8-bitowe. Znana jest z (najcześciej) kiczowato wyglądających obrazków o przesyconych kolorach i dziwnym kontraście. Moje rozważania nie dotyczą tej techniki i nie będę się nad nią pochylał, co i Tobie czytelniku radzę.

Aby zrozumieć temat trzeba zacząć od pojęcia rozpiętości tonalnej obrazu. Jest to nic innego jak różnica pomiędzy minimalną a maksymalną jasnością i wyraża się ją najczęściej jako współczynnik kontrastu (dotyczy to urządzeń reprodukcyjnych – monitorów i telewizorów) lub jako ilość EV (dotyczy to zapisu materiału). Dla przykładu – jeżeli najjaśniejszy punkt sceny jest 100 razy jaśniejszy od punktu najciemniejszego to mówimy że kontrast/dynamika sceny wynosi 1:100. Chcąc wyrazić to w (logarytmicznej) skali EV wychodzi, ze scena ta ma rozpiętość około 6,55 EV (bo 2^6,55 = 100). Dla wyjaśnienia 1 EV to dokładnie 2-krotna różnica jasności, 2 EV to 4-krotna różnica jasności itd.

Dla uproszczenia założymy, że dane obrazu zapisywane są w sposób liniowy (dokładnie tak pracują matryce i urządzenia wyświetlające) – co oznacza, że piksel o wartości 100 jest dokładnie 2 razy jaśniejszy od piksela o wartości 50 (jest to prawa dla plików RAW i nie do końca prawda dla plików kompresowanych JPG/HEIF/PNG – gdzie stosowana jest krzywa gamma – tym nie mniej wybiega to poza zakres tych rozważań i nie ma dla nich większego znaczenia). Z tego założenia wynika bardzo prosta zasada – urządzenia rejestrujące (matryce) lub wyświetlające (monitory, telewizory) są w stanie reprodukować w najlepszym wypadku obrazy o dynamice odpowiadającej ilości bitów na których zostały zapisane dane. W wypadku najbardziej rozpowszechnionych standardów – czyli 8 bitów (wartość piksela od 0 do 255) jest to maksymalny kontrast 1:255 lub 8 EV. W wypadku matryc mówimy również bardzo często o efektywnej rozpiętości tonalnej – ze względu na szum (który powoduje zanik detalu) dolna granica przesuwa się do góry powodując spadek dynamiki. W wypadku „idealnej” matrycy z każdym podniesieniem ISO o 1EV tracimy 1EV dynamiki. Tak więc matryca zapisująca przy natywnym ISO 100 na 8 bitach ma 8 EV dynamiki ale przy ISO 400 będzie już jej miała tylko 6 EV (pomimo, że zapis nadal wykonywany jest na 8 bitach – 2 najmniej znaczące bity poświęcamy na szum w cieniach). W rzeczywistości nie ma idealnych matryc tak więc ich realna dynamika jest zawsze niższa od tej teoretycznej.

Dochodzimy teraz do clue problemu – rzeczywiste sceny mają (o ile oczywiście nie robimy zdjęcia szarej kartki we mgle) mają kontrast znacznie większy niż 1:300. Standardowo sceny w dzień potrafią mieć dynamikę znacznie przekraczającą 1:1000. W takim świecie żyliśmy do niedawna – urządzenia rejestrujące i wyświetlające były ograniczone do tych nieszczęsnych 8 bitów – tak więc mogliśmy rejestrować jedynie wycinek dynamiki sceny. Czym to się objawiało – albo utratą detalu w czerniach (po prostu najciemniejsze elementy sceny przybierały postać czarnych plam) albo/i traciliśmy detal w światłach (na przykład przepalone chmury). Ograniczenie urządzeń rejestrujących znikło dość dawno – już 5-6 letnie matryce posiadają efektywną rozpiętość tonalną blisko 11-12 EV, dzisiejsze matryce osiągają wartość 15 EV – a dzięki zapisowi w formacie RAW nie jesteśmy ograniczeni w zakresie rejestracji takiego obrazu. Znacznie gorzej było z urządzeniami wyświetlającymi – kontrast telewizorów i monitorów bardzo rzadko przekraczał 1:200, 1:300. Nie mówiąc już o formatach zapisu (większość kodeków video oraz wszystkie formaty plików z obrazem były 8-bitowe). Oczywiście sytuacja ta była o tyle lepsza, że można było próbować „ścisnąć” w drodze cyfrowej obróbki zarejestrowaną dynamikę do tych 8 EV dostępnych w plikach – niestety tutaj często powstawał wspomniany na początku efekt HDR, najczęściej przykry dla oka.

Zmiany nastąpiły kilka lat temu. Dzięki technologiom takim jak OLED, micro-LED czy strefowe wygaszanie w telewizorach zaczęły one osiągać znacznie lepsze wartości kontrastu – zarówno poprzez możliwość dostarczania „czarniejszej” czerni oraz jaśniejszej bieli. Przyjęło się określać jasność telewizorów w nitach. Dziś są już dostępne monitory o jasności przekraczającej 600 nitów a lepszej klasy telewizory osiągają wartości ponad 1000 nitów. Jeżeli założymy, że urządzenia te są w stanie reprodukować czerń bliską prawdziwemu 0 to można powiedzieć, że oferują kontrast na poziomie 1:600 – 1:1000. A to już bardzo dużo…

Na stację tą szybko zareagował rynek filmowy – pojawiły się standardy zapisu video w formatach 10 i 12 bitowych – HDR10, HDR10+ czy Dolby Vision. Także telewizory (znacznie gorzej jest tutaj z monitorami i samymi komputerami) zaczęły wspierać wyświetlanie tych standardów. Dziś – produkcje fimowe (choćby na Netfliksie) nie zrealizowane w standardzie HDR traktuje się jako coś zdecydowanie gorszego. Wszystkie narzędzia od post-produkcji Video (takie jak Adobe Premiere czy Final Cut Pro wspierają produkcję materiałów HDR).

A co z innymi urządzeniam? HDR zawitał również pod nasze strzechy w postaci urządzeń przenośnych. Dziś wszystkie nowsze iPhone’y oraz wyższej klasy urządzenia zbudowane na platformie Android potrafią wyświetlać wideo w formacie HDR. Najgorzej jest z komputerami. Tutaj zarówno wsparcie w systemach operacyjnych – ale przede wszystkim w monitorach było absolutnie znikome. Sprawy poprawiły się w ciągu ostatnich 2-3 lat, kiedy to Windows 11 dostał wsparcie dla wyświetlaczy HDR a ecosystem Apple zaczął wspierać HDR również na platformach Mac (wszystkie najnowsze MacBooki Pro posiadają wyświetlacze zdolne do wyświetlania obrazu HDR o jasności 600 nitów). Pojawiło się tez na rynku sporo monitorów komputerowych HDR w miarę przystępnych cenach.

Niestety – o ile na rynku Video pojawiły się standardy związane z HDR to rynek fotografii zdawał się tą technologię całkowicie ignorować. Dotyczy to zarówno oprogramowania do obróbki jak i standardów zapisu. Wciąż królujący JPG nie daje żadnych możliwości publikacji treści HDR. Poważny przełom dokonał się tutaj całkiem niedawno. Pojawił się standard pliku AVIF (który poza znacznie lepszą i mniej stratną przy większym zysku kompresją charakteryzuje się możliwością zapisu materiału HDR w 10 lub 12 bitach). Co więcej Google w swojej przeglądarce Chrome w wersji 108+ wspiera wyświetlanie plików AVIF w trybie HDR – oczywiście na wspieranych urządzeniach. Do tego Adobe w najnowszej wersji Camera RAW (dostępnej wraz z Photoshopem) uruchomił eksperymentalne wsparcie dla edycji zdjęć w trybie HDR – oczywiście na wspieranych urządzeniach (można o tym przeczytać oraz zobaczyć zdjęcia w fromiacie AVIF we wpisie HDR w fotografii – nadchodzi przełom).
Choć dziś, w dalszym ciągu, najlepszym sposobem prezentacji zdjęć w trybie HDR jest utworzenie filmu HDR w postaci slide-show, to jednak sytuacja ta zdaje się szybko zmieniać i pewnie w ciągu 1-2 lat fotograficzne treści HDR staną się znacznie bardziej popularne.

Będzie to poważny przełom, bo zapewni to fotografii możliwość prezentacji treści znacznie bogatszych jeżeli chodzi o dynamikę – a co za tym idzie możliwość przekazania treści w postaci znacznie bliższej rzeczywistym doznanim wizualnym.

Oczywiście fakt ten ma poważne implikacje w zakresie techniki wykonywania zdjęć. Przede wszystkim absolutna konieczność rejestracji materiału w formie RAW a także znacznie bardziej przemyślana i dokładna strategia ekspozycji. W wypadku klasycznej fotografii redukcja z 14 bitów (dziś to standard dla plików RAW) do 8 bitów JPG daje ogromne możliwości „poprawek”. W wypadku materiałów pod zdjęcia HDR kiedy docelowo chcemy osiągnąć 10 lub 12 bitów – tej przestrzeni na poprawki jest mniej. Z drugiej strony technika ta kończy problem „wyciągania nieba” lub podobnych zabiegów – naturalna szeroka dynamika zapewnia odpowiedni odbiór.

Jak rozpocząć przygodę z HDR? Jeżeli posiadasz monitor oraz system wspierający HDR (MacOS lub Windows 11) to w zasadzie wszystko już gotowe. Jeżeli nie posiadasz monitora – to jest wiece prawdopodobne, że masz telewizor, który wspiera HDR. Warto spróbować podłączyć go do komputera i sprawdzić jak to się sprawuje. Zapewniam, że warto. Należy pamiętać, ze zarówno w MacOS’ie jak i w Windows po połączeniu telewizora trzeba włączyć odpowiedni tryb w panelu sterowania.

Na koniec, krótki film, w którym chciałem pokazać, jak dziś wygląda edycja zdjęć w formacie HDR w Adobe Camera Raw

Uwaga – film najlepiej oglądać w aplikacji YouTube – wersja przeglądarkowa może nie oferować wersji HDR

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *