Ryan Haines / Autoridade Android

Estamos oficialmente a poucos dias de 2026, e a maioria das pessoas está ocupada fazendo (ou talvez já quebrando) suas resoluções de Ano Novo. Eu, por outro lado, estou preocupado com um tipo diferente de resolução: a resolução da câmera. Tudo bem, essa foi uma maneira terrível de entrar no meu tópico, mas vou mantê-lo porque é verdade.

O que realmente quero dizer é que as coisas que podemos fazer com as câmeras dos smartphones modernos são absolutamente notáveis. Podemos tirar fotos macro com zoom telefoto, inserir-nos nas imagens da câmera e até mesmo reimaginar o céu se estivermos presos em um dia nublado e cinzento. No entanto, uma coisa parece piorar a cada tentativa de melhorá-la e penso que precisamos de recuar.

É hora de deixar o zoom da câmera com tecnologia de IA em 2025, e aqui está o porquê.

Eu adoro zoom de câmera de longo alcance, mas…

Tushar Mehta / Autoridade Android

Ouça – acho ótimo que as câmeras dos smartphones agora possam aumentar o zoom em até 100x com o pressionar de um botão, ou melhor, com o toque de alguns dedos. Achei impressionante quando a Samsung o lançou, e foi por isso que meu pai comprou (e manteve) o Samsung Galaxy S21 Ultra até que sua bateria não durasse um dia. Também fiquei surpreso quando o OnePlus decidiu aumentar o limite para zoom de 120x no OnePlus Open, mas sua parceria com a Hasselblad cumpriu essa promessa.

É claro que havia uma boa dose de processamento digital em jogo – eu não esperaria que um sensor telefoto de 64 MP de 1/2 polegada pudesse lidar sozinho com esse tipo de alcance – mas parecia que havíamos encontrado o ponto ideal. Os detalhes no alcance máximo eram decentes, mas verossímeis, dado o hardware em que foram usados. Agora, porém, sinto que pegamos esse ponto ideal e continuamos pressionando até que seja inacreditável – e não no bom sentido.

Quero realidade, não detalhes gerados por IA.

Por exemplo, o novo carro-chefe do OnePlus, o OnePlus 15, oferece zoom de 120x, assim como seu antecessor, o OnePlus 13. O novo telefone, no entanto, possui um sensor telefoto muito menor que lida com o trabalho pesado. Ele caiu de um sensor de 1/1,95 polegada para um sensor de 1/2,76 polegada, reduzindo megapixels e aumentando o zoom óptico de 3x para 3,5x. Então, o que teve que mudar para que o zoom (espero) permanecesse o mesmo? OnePlus teve que contar com seu novo motor DetailMax para processamento, junto com uma dose substancial de IA.

O resultado, irritantemente, é um rebaixamento na qualidade do zoom, conforme visto abaixo:

Essencialmente, o que quero que você veja acima são as linhas retas. À esquerda, eles são muito bons, talvez um pouco afiados demais, mas bons. Você pode facilmente ver os painéis que cercam o topo da torre, mas não parece que foi retirado de um antigo jogo Tomb Raider.

À direita, porém, chamaria sua atenção para as linhas na lateral do Monumento a Washington. Para quem ainda não conhece, o obelisco é composto por blocos regulares de granito e mármore com bordas retas – o aspecto crítico são as bordas retas. Aqui, parece que os blocos da face mais clara da estrutura apresentam linhas onduladas, assumindo quase o caráter de casca de árvore, ao contrário do que realmente existe. E sim, estou comparando uma foto antiga de 60x com uma foto mais recente de 30x e preferindo a antiga – é onde estamos.

Mas, se mudarmos para o Pixel 10 Pro do Google – um membro mais novo do clube do zoom 100x – obteremos um conjunto de resultados ligeiramente diferente.

Dadas formas simples, o chip Tensor G5 do Google sabe exatamente o que fazer. Ele aprimora a letra e a estrutura do sinal Domino Sugars de Baltimore e mantém a lua parecendo, bem, a lua. Porém, quando você adiciona vida orgânica, como pessoas ou pássaros, ela para. Em vez de gerar incorretamente qualquer ser vivo, o Google processa a área circundante, limpando a cruz dourada, os mastros e a grama em suas respectivas imagens.

Embora você provavelmente possa ignorar os passarinhos, dada a falta geral de detalhes, as pessoas são muito mais difíceis. Eles parecem especialmente artificiais contra uma cena nítida, quase como se tivessem sido renderizados apenas para estabelecer um senso de escala. Se eles não estivessem lá, o resultado final ficaria muito bom, assim como as fotos à direita.

E é aqui, na minha opinião, que as coisas precisam mudar.

Se mantivermos o Pro Res Zoom (e mais), aqui está o que precisa mudar

Stephen Headrick / Autoridade Android

Tudo bem, eu sei que disse que o zoom da câmera com IA precisa ser deixado em 2025, mas a verdade é que isso não acontecerá. Não há como empresas como Google ou OnePlus virarem as costas para essa abordagem de zoom da câmera que ainda estão ajustando. Afinal, o processamento sempre foi o nome do jogo para a câmera Pixel do Google. Mas, se for esse o caso, acho que algumas coisas precisam mudar em ambos os lados.

Para empresas como a OnePlus, que decidiram rebaixar seus sensores de câmera na esperança de que a IA preencha as lacunas, o primeiro passo é, bem, desfazer isso. A IA ainda requer o máximo de dados possível para criar uma imagem final refinada, o que significa megapixels maiores e, idealmente, sensores maiores. Honestamente, acho que se o OnePlus tivesse mantido o mesmo sensor telefoto que tinha no OnePlus 13 e o emparelhado com o DetailMax Engine, teria renderizado um Monumento a Washington que se parecesse com o mármore pretendido, em vez da madeira que acabou sendo.

Quer isso realmente aconteça ou não, a próxima coisa que todos deveriam fazer – do Google ao OnePlus, à Samsung e qualquer outra pessoa – é descobrir quando usar IA e quando deixá-la na prateleira. Para o Google, vejo isso como um foco nas pessoas e não no cenário, que é o oposto do que faz atualmente.

Se o zoom AI persistir, ele deverá ser aplicado uniformemente.

O que quero dizer é que o Pro Res Zoom do Google foi projetado para paisagens, arquitetura e formas manufaturadas. Dessa forma, quando detecta uma pessoa ou um animal em um instantâneo ampliado, ele os processa em vez de correr o risco de cometer um erro. Isso faz com que eles se destaquem ainda mais, conforme detalhei acima. Assim, ao mudar o foco, o Google teria que sacrificar um pequeno detalhe no inorgânico, mas faria com que o orgânico parecesse melhor (ou menos deslocado) no processo.

Eventualmente, quando seus modelos de processamento amadurecerem ao ponto de poderem lidar com pessoas e animais tão bem quanto com edifícios e árvores, eu não me importaria se o Google voltasse atrás. Na minha opinião, seria como jogar de forma conservadora com o gerador Nano Banana porque você sabe que o Nano Banana Pro está chegando – vá com calma agora para obter uma recompensa maior mais tarde.

Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.



Share.

Comments are closed.

Exit mobile version