O Google surpreendeu a todos nós esta semana quando revelou alguns detalhes oficiais da série Pixel 6, que vão desde seu novo Tensor SoC interno ao design e muito mais. Mas uma das curiosidades mais importantes é que os novos telefones finalmente oferecem grandes atualizações de câmeras.
O Pixel 6 Pro, em particular, está finalmente recebendo uma câmera traseira tripla pela primeira vez na história da série Pixel, embora, no estilo típico do Google, alguns anos mais tarde do que as marcas rivais do Android. Isso significa que temos uma câmera padrão, ultra-wide shooter e teleobjetiva no mesmo telefone, ao contrário dos telefones Google carro-chefe anteriores que faziam você escolher entre uma ultra-wide e uma teleobjetiva.
No entanto, existem mais atualizações do que apenas um sistema de três câmeras, e isso pode permitir algumas adições e melhorias realmente interessantes para a experiência de câmera do Google Pixel. Aqui está o que esperamos das câmeras Pixel 6 e Pixel 6 Pro.
Relacionado: Os melhores telefones com câmera que você pode obter
O sensor principal finalmente recebe uma atualização
Talvez a atualização mais notável da fotografia seja que a série Pixel 6 receberá um novo sensor de câmera principal. Este é um grande negócio porque o Google tem usado o mesmo sensor IMX363 de 12 MP desde os dias do Pixel 3, com o sensor IMX362 do Pixel 2 sendo muito semelhante também.
Um sensor novo e maior pode oferecer várias melhorias em relação ao antigo sensor IMX363, como faixa dinâmica aprimorada e detalhes melhores. Este último em particular foi uma reclamação em nossa análise do Pixel 5, como dissemos que as imagens de cenas ricas em detalhes “parecem ocupadas e excessivamente contrastantes”.
O Google diz que o novo sensor da câmera irá capturar 150% mais luz do que o sensor antigo (via The Verge), o que significa que devemos esperar fotos melhores à noite. O aplicativo da câmera Pixel pode não precisar habilitar o modo Visão Noturna com a mesma frequência que seus predecessores, já que os recursos aumentados de coleta de luz e o processamento mais rápido devem fornecer fotos mais brilhantes no modo de foto padrão.
Anteriormente, vimos o Google oferecer um modo de visão noturna no Pixel 5 também, então a captura de luz aprimorada poderia resultar em mais fotos de retratos com pouca luz sem usar a visão noturna ou retratos de visão noturna em situações que seriam muito escuras para o Pixel 5.
Um novo sensor de câmera principal significa que o Google pode não ter que confiar na Visão Noturna com muita frequência, por exemplo.
Também esperamos melhores resultados para imagens de astrofotografia e lapsos de tempo de astrofotografia. Esperamos que não precisemos esperar 15 segundos para obter um único quadro de astrofotografia e quatro minutos para a foto completa. Os recursos aprimorados de captura de luz também abrem a porta para recursos de luz ultrabaixa, como gravação de vídeo em baixa luminosidade e intervalos noturnos.
Não há nenhuma palavra sobre o sensor específico da câmera ainda, mas sensores como o Samsung Isocell GN2 de 50MP também oferecem tecnologia de foco automático Dual Pixel Pro e suporte para mais opções de qualidade de vídeo (por exemplo, 4K a 120fps e gravação 8K). O Google geralmente se atrasa para as opções de vídeo de alta resolução em comparação com os rivais, mas definitivamente esperamos uma tecnologia de autofoco aprimorada se adotar um módulo como este.
O foco automático (e a exposição) aprimorados também estaria de acordo com a filosofia adotada pelo engenheiro de câmera do Google, Isaac Reynolds, na época do lançamento da série Pixel 4. Ou seja, os usuários devem ser capazes de simplesmente abrir o aplicativo da câmera e obter a foto correta sem tocar no visor.
Excelente zoom de software encontra ótimo hardware
O Pixel 6 Pro também está recebendo uma câmera telefoto 4x – uma grande atualização da lente telefoto 2x da série Pixel 4. Não há nenhuma palavra sobre outros detalhes sobre a câmera 4x, mas isso ainda nos entusiasma com o zoom nos novos Pixels.
A combinação de Super Res Zoom e uma câmera telefoto 4x significa que podemos esperar que o Pixel 6 Pro ofereça ótimas imagens além do zoom 4x também. Todos os telefones têm um limite em que o zoom vai de bom para ruim, mas o limite do Pixel 6 Pro deve ser significativamente maior do que o Pixel 5 e Pixel 4 em virtude do maior zoom nativo.
Um desafio potencial que vimos com telefones equipados com uma câmera telefoto 4x ou 5x (além da câmera principal) é que o zoom em curto alcance tende a ser prejudicado. Vimos empresas como Huawei, Oppo e outras confiarem na tecnologia de fusão de imagens para combater isso, combinando os resultados das câmeras principal e telefoto para fornecer fotos sólidas de 2 a 3x.
Estamos supondo que o Google poderia fazer o mesmo para fotos abaixo de 4x, combinando a câmera principal, a câmera telefoto e o Zoom Super Res. No entanto, vimos alguns telefones sofrerem de detalhes reduzidos nas bordas ao usar técnicas de fusão de imagens como essa, então isso também pode ser algo que o Google precisa estar atento.
A promessa renovada de silício de aprendizado de máquina
A série Pixel 6 também será os primeiros telefones do Google movidos inteiramente por um chipset interno, batizado de processador Tensor. Esperamos que o Google use a tecnologia Arm CPU e GPU, mas a grande novidade aqui é que o chipset tem uma TPU (unidade de processamento tensor). Este é um processador de aprendizado de máquina que promete habilitar uma série de recursos móveis que geralmente requerem uma conexão com a Internet.
Esta não é a primeira vez que vemos silício dedicado do Google em um telefone Pixel, pois ele usava anteriormente o Pixel Visual Core e o Pixel Neural Core. Esses chips fizeram de tudo, desde acelerar o processamento HDR + e inferência de voz até habilitar o desbloqueio facial 3D. Mas a TPU promete uma atualização ainda maior, oferecendo mais potência ao mesmo tempo que é uma parte mais integrante do chipset geral do que os chips anteriores do Google.
Veja também: Por que o chip Tensor do Pixel 6 é realmente importante (e por que não é)
O Google está usando a TPU para melhorar os recursos da câmera também, com a empresa mostrando várias demonstrações para The Verge. Uma dessas demostrou uma foto borrada de uma criança, com o Google passando essa imagem pela TPU para desfocar o rosto da criança. O fabricante do Pixel diz que, além do processamento de vários quadros existente com a câmera principal, é capaz de usar a câmera ultra-grande angular como parte do processo, resultando no rosto desfocado.
Outra demonstração promovida pelo Google para a TPU é a gravação de vídeo HDR aprimorada. Esta demo confrontou o Pixel 6 com o Pixel 5 e o iPhone 12 Pro Max, gravando um vídeo HDR de uma praia (em 4K / 30fps). The Verge notou que o Pixel 6 saiu por cima porque não iluminou artificialmente as sombras em comparação com o dispositivo da Apple, ao mesmo tempo que parecia mais natural do que ambos.
O Google disse à agência que estava usando o mesmo processo HDR para vídeo HDR que é usado para suas imagens estáticas. Não podemos deixar de sentir que isso abre a porta para um modo burst melhorado, que está faltando nos dispositivos Pixel há algum tempo.
O Google demonstrou recursos como ‘desfocagem’ de rostos e vídeo HDR aprimorado, mas um aprendizado de máquina mais poderoso poderia trazer muito mais recursos.
Outra possibilidade levantada com o silício de IA mais rápido é que finalmente poderíamos ver a tecnologia de remoção de objetos conforme anunciada pelo Google em 2017. Naquela época, ele mostrava uma imagem tirada atrás de uma cerca de arame, com aprendizado de máquina usado para remover a cerca para entregar um tiro certeiro. Não vimos essa tecnologia desde então, mas a TPU poderia teoricamente habilitá-la, bem como recursos como apagamento de objetos em geral (como visto em telefones Samsung) e remoção de reflexo (como visto em dispositivos Huawei).
O Google também usou hardware de aprendizado de máquina anteriormente para habilitar recursos voltados para o entusiasta, como os controles de exposição dupla. Esse recurso bacana estreou na linha Pixel 4 e permitiu aos usuários ajustar os níveis de sombra antes de tirar uma foto. Portanto, espero que a TPU ofereça recursos mais convenientes no visor, dando aos usuários um motivo a menos para visitar um aplicativo de edição.
O ex-googler Marc Levoy admitiu em 2019 que a empresa ainda não tinha resolvido o desafio de capturar uma lua detalhada e uma paisagem iluminada pela lua em uma única foto. O ex-chefe de câmera atribuiu a dificuldade em superar esse obstáculo ao fato de a faixa dinâmica entre a lua brilhante e a paisagem escura ser muito grande, enquanto exortava as pessoas a “ficarem atentas” aos desenvolvimentos. É lógico que o Google arquivou esse trabalho ou simplesmente esperou por um hardware de câmera melhor e silício de aprendizado de máquina. E adivinhe o que temos com a série Pixel 6?
Ainda há muitas incógnitas em torno da câmera do Pixel 6, mas há muito com que ficar animado. Você está impressionado com o hardware da câmera Pixel 6 Pro até agora? Deixe-nos saber através da enquete acima e nos comentários.