Astrofotografia: Google ujawnia, w jaki sposób Pixel 4 gwoździ te nocne zdjęcia

Google

Tryb astrofotografii Google, który został niedawno uruchomiony wraz z Pixel 4 przed pojawieniem się na urządzeniach Pixel 2 i 3, okazał się hitem wśród fanów nocnego nieba.

Korzystając z aplikacji Aparat Google, tryb astrofotografii umożliwia robienie oszałamiających zdjęć gwiazd, które zwykle wymagałyby użycia sprzętu fotograficznego o wiele bardziej masywnego i droższego niż zwykły smartfon.

Przy tak dużym zainteresowaniu tą funkcją gigant technologiczny w tym tygodniu postanowił przedstawić nieco wgląd w jej działanie, wyjaśniając niektóre jej sprytne cechy w poście na blogu.

Tryb astrofotografii to zasadniczo bardziej zaawansowana wersja Night Sight, potężnej funkcji słabego oświetlenia, która została uruchomiona wraz z Pixel 3 w 2018 roku.

„Tegoroczna wersja Night Sight przesuwa granice fotografowania przy słabym oświetleniu za pomocą aparatów telefonicznych” - napisał w poście zespół fotografów Google. „Zezwalając na ekspozycje do 4 minut na Pixelu 4 i 1 minuty na Pixelu 3 i 3a, najnowsza wersja umożliwia robienie ostrych i wyraźnych zdjęć gwiazd na nocnym niebie lub nocnych krajobrazów bez sztucznego światła . ”

Google

Post obejmuje sporo miejsca, w tym sposób, w jaki funkcja pomaga uniknąć drgań aparatu i rozmycia spowodowanego ruchem w scenie, dzieląc długie ekspozycje na wiele klatek przed automatycznym wyrównaniem ich w celu uzyskania ostrego obrazu.

W trybie astrofotografii czas ekspozycji na klatkę Pixel 4 trwa nie dłużej niż 16 sekund przy maksymalnie 15 klatkach. Dłuższe ekspozycje stworzyłyby tak zwane „ślady gwiazd” spowodowane „poruszaniem się” ciał niebieskich po niebie. Podczas gdy niektórzy astrofotografowie lubią robić zdjęcia ze śladami gwiazd, funkcja Google ma na celu tworzenie zdjęć, które „wyglądają jak punkty świetlne”.

Artykuł Google wyjaśnia również, w jaki sposób oprogramowanie radzi sobie z tak zwanymi ciepłymi i gorącymi pikselami, małymi jasnymi kropkami, które mogą pojawić się przy dłuższych czasach naświetlania rejestrowanych przez czujniki aparatu cyfrowego.

Według Google ciepłe i gorące piksele można zidentyfikować, „porównując wartości sąsiednich pikseli w tej samej klatce i w sekwencji klatek zarejestrowanych dla zdjęcia oraz wyszukując wartości odstające”. Po zlokalizowaniu piksel jest następnie ukrywany, zastępując jego wartość średnią z sąsiadów. „Ponieważ oryginalna wartość piksela jest odrzucana, następuje utrata informacji o obrazie, ale w praktyce nie wpływa to zauważalnie na jakość obrazu” - powiedział Google.

W dalszej części artykułu mowa o tym, jak oprogramowanie rozjaśnia wyświetlacz, aby wspomóc kompozycję, i jak udaje mu się zapewnić ostre ustawienie ostrości w trudnych warunkach słabego oświetlenia.

Wyjaśnia również, w jaki sposób wykorzystuje uczenie maszynowe do redukcji szumów i selektywnego przyciemniania nieba, dając bardziej realistyczne wrażenie sceny w danym momencie i sprawiając, że te gwiazdy i reszta obrazu naprawdę się pojawiają.

Możesz znaleźć artykuł tutaj.