2023 é o ano dos sensores de uma polegada, câmeras infinitas de megapixels e… prévias terríveis. O que quero dizer com pré-visualização? Ao que vemos na tela quando abrimos a câmera e ainda não tiramos a foto. Os telefones pós-processam a imagem, então não vemos o resultado final até irmos para a galeria.
No entanto, há uma batalha completamente perdida no caso dos fabricantes de Android: Renderização HDR na visualização. É algo bastante difícil de justificar e um melão que gostaria de abrir hoje. Temos celulares capazes de competir com computadores e câmeras profissionais que, por descuido dos fabricantes, continuam mostrando céus brancos e queimados em algo tão importante quanto a prévia.
Sim, é possível renderizar HDR na visualização
A Apple tem renderizado HDR em pré-visualização por gerações. Isso é especialmente relevante em câmeras de telefone, pois, caso contrário, temos que confiar que o telefone corrigirá a gravação. Se tudo aparecer controlado na pré-visualização, teremos a certeza de como ficará a fotografia final na galeria.
Este é um desafio que requer alguma potência, um ponto em que a Apple historicamente liderou o Android. O Google Pixel começou a mostrar a visualização com o processamento HDR começando com o Pixel 4. Ele tinha um Snapdragon 855 capaz de processar essas informações, mas… e o pequeno Pixel 4a e seu processador intermediário? A história, claro, é mais do que interessante.

O Google queria que seu Pixel 4a exibisse a visualização HDR como a foto final ficaria. É uma questão de filosofia, de se importar com a experiência de fotografar. Apesar de suas intenções, o Snapdragon 730 foi um processador um tanto justo para atingir esse fim: o “Live HDR+”.
projetado um algoritmo especialmente projetado para a GPU, da forma mais eficiente possível na memória. O telefone calculou, em tempo real e com base em pequenos grupos de pixels, a quantidade de luz a corrigir. Basicamente, o telefone utilizava vários inputs (fotos com diferentes exposições) para calcular os outputs a serem aplicados, sem a necessidade de processar totalmente a fotografia. Esses cálculos foram realizados por uma rede neural que prevê, a partir da imagem, as curvas HDR para aplicar.

Controles HDR duplos no Pixel. Podemos expor como quisermos sem queimar o céu.
O Google foi ainda mais longe, e é que o Google Pixel permite ajustar os faróis altos e baixos separadamente, algo que nenhum telefone conseguiu até agora (e já choveu desde o Pixel 4). Em palavras simples: podemos aumentar as sombras da foto sem queimar o céu, e abaixá-las sem desligar. As possibilidades são enormes.
No momento, Google é a única empresa no Android que renderiza HDR em tempo real a partir da visualização. É por isso que a experiência de filmagem nos Pixels é espetacular (embora haja muito processamento na galeria), sem céus queimados. Ao trabalhar com entradas de baixa resolução, essa visualização às vezes é granulada e sem detalhes, embora o HDR funcione de maneira brilhante. A Apple é quem melhor funciona neste ponto, com uma antevisão também imperfeita, mas com alta resolução e com Live HDR.
Os processadores de hoje estão se tornando mais capazes
Com o Snapdragon 8 Gen 2, tive um sopro de esperança: seu recurso principal era o processamento de imagens em tempo real. Para se ter uma ideia, este processador é capaz de Processe destaques e rostos uniformes (para ajustar nitidez e tom) em gravação de vídeo 4K em tempo real. O poder de processamento é simplesmente selvagem.
Já experimentei telemóveis com este processador e… a visualização ainda é ruim. Até abrir a galeria não tenho a foto que deve ser visualizada. é um detalhe geek, irrelevante para usuários comuns, mas que destaca aqueles pontos completamente esquecidos pelos fabricantes. Às vezes, reclamar ajuda. Por tentar, que não fique.
Imagem | xataka
Em Xataka | Os celulares com as melhores câmeras que analisamos nos últimos meses (2023)