Robert Triggs / Autoridade Android
Quem não gosta de um bom boato, especialmente quando ele combina telefones de alto nível como o Samsung Galaxy S25 com temas quentes como IA? De acordo com últimos sussurros, o próximo telefone carro-chefe da Samsung será equipado com um novo processador Exynos 2500 (além de um Qualcomm Snapdragon 8 Gen 4 ainda não anunciado). O relatório exige uma boa dose de sal, mas a especulação interessante é que o chip contará com um acelerador de IA dedicado construído pelo Google, não muito diferente do Google TPU encontrado no processador Tensor G3 do Pixel 8.
Nas últimas duas gerações, a Samsung desenvolveu seu próprio acelerador de IA para Exynos, consistindo em grandes e pequenos núcleos focados em IA (NPUs) e um processador de sinal digital (DSP) de processamento de números mais tradicional. A introdução de uma peça de processador desenvolvida pelo Google seria uma admissão tácita de que o silício de IA da Samsung está atrás da concorrência, seja em desempenho ou em ferramentas de desenvolvimento.
Normalmente, diríamos de jeito nenhum, mas este não é um desenvolvimento improvável. Google e Samsung trabalharam em estreita colaboração na série de chips Tensor e em software de IA como o Galaxy AI. O licenciamento de tecnologia adicional entre os dois seria um negócio normal. A ASUS já usa Google TPUs para sua plataforma Coral IoT, então por que não a Samsung?
Os benefícios seriam, presumivelmente, recursos mais potentes de processamento de números de IA para a série Galaxy S25. Quer o boato seja verdadeiro ou não (ainda estamos longe de estar convencidos), ele chamou minha atenção para um ponto de inflexão importante na atual corrida armamentista de IA móvel, no qual vale a pena mergulhar.
Alguém vencerá a corrida da IA, em algum momento
O cenário da IA mudou muito no ano passado, assim como os requisitos de hardware para executar os modelos e ferramentas mais recentes. As inferências iniciais “básicas” e as ferramentas baseadas na nuvem deram lugar rapidamente a modelos generativos que podem produzir trechos de texto, imagens e até mesmo vídeo no dispositivo, mas exigem muito mais poder de computação especializado para fazer isso. Os projetistas de processadores móveis têm investido cada vez mais transistores em peças de processamento NPU para acompanhar, com Google, Samsung, Qualcomm, MediaTek e Apple buscando abordagens ligeiramente diferentes.
Se os rumores forem verdadeiros, Exynos e Tensor podem estar mais próximos do que nunca.
Sempre há vencedores e perdedores em um campo inovador, e há um elemento de sorte em prever as direções do desenvolvimento do silício com tantos anos de antecedência. Parte do problema é que as cargas de trabalho de IA variam muito, e é difícil descobrir quais instruções e profundidades de bits suportar no hardware enquanto o estado dos aplicativos permanece em constante mudança. O cenário em mudança pode tornar os custos de desenvolvimento proibitivos, especialmente se você não estiver vendendo seus empreendimentos em todo o mundo.
A vantagem do Google é participar do desenvolvimento de software e hardware de IA, talvez mantendo o desenvolvimento de TPU um pouco mais sintonizado com as mudanças nos desenvolvimentos do que alguns outros. Afinal, certamente haverá benefícios em usar hardware de IA da mesma empresa que traz modelos Gemini Nano para vários smartphones.
Robert Triggs / Autoridade Android
Olhando um pouco mais adiante, o futuro dos aplicativos de IA não se limitará a alguns aplicativos OEM proprietários fornecidos com o seu telefone (desculpe, Galaxy AI). Os consumidores vão querer levar seus aplicativos de IA para vários dispositivos e plataformas como outros aplicativos, necessitando de acesso de desenvolvedores terceirizados ao hardware acelerador de IA.
No entanto, testei os números de desempenho de IA da série Exynos e Snapdragon Samsung Galaxy S24 usando GeekBench ML (reconhecidamente ainda em desenvolvimento) e descobri que o aplicativo não conseguia acessar desempenho adicional de NPU por meio da API Android NN. Rodar diretamente na CPU e GPU foi mais rápido, o que não deveria ser o caso. Talvez este seja um problema de driver, ou alguns dos melhores telefones de IA do mercado não parecem oferecer aos desenvolvedores terceirizados acesso fácil para aproveitar sua inteligência de IA por meio de uma API central do Android.
Executei o mesmo teste no Pixel 8 Pro do Google e encontrei um aumento notável em algumas cargas de trabalho ao usar o Android NN (exceto em testes de ponto flutuante de 32 bits, que não apresentam nenhum benefício). Em outras palavras, os desenvolvedores podem executar cargas de trabalho do TensorFlow AI na TPU do Pixel para obter ganhos significativos de desempenho.
A execução do AI Benchmark de Ignatov Andrey (resultados abaixo) apresentou uma tendência muito semelhante. A API Android NN não mostrou basicamente nenhum aumento em relação aos núcleos da CPU e também obteve pontuação muito abaixo das estruturas QNN da Qualcomm no Galaxy S24 Ultra. Curiosamente, o QNN no S24 Ultra superou a melhor pontuação do Pixel 8 por uma ampla margem, destacando o poder de computação de IA da Qualcomm. Além disso, a Qualcomm tem suas ferramentas AI Hub para que os desenvolvedores acessem seus próprios modelos de IA no dispositivo. É preocupante que a opção ENN da Samsung não pudesse ser executada no Exynos Galaxy S24, deixando-o com uma pontuação terrível baseada no Android NN.
Isso não é problema com o desempenho de IA do Galaxy S24; claramente funciona bem o suficiente para o Galaxy AI. A questão é que os desenvolvedores não vão querer implementar três ou quatro estruturas diferentes para obter o melhor desempenho do aplicativo de IA para todos. Este é um problema mais amplo.
Esperançosamente, o que foi dito acima ajudou a destacar as duas metades do desafio do silício de IA: primeiro desenvolver o hardware e depois codificar as bibliotecas e ferramentas para abrir esse hardware de uma forma que os desenvolvedores possam e queiram desenvolver. É um investimento pesado, ainda mais quando o silício está mudando tão rapidamente.
O silício de IA acabará por se unir em torno do modelo mais prático, e eu não apostaria contra o Google.
Se o Google já fez o trabalho braçal da API com suas TPUs, como parece ser o caso, talvez seja uma razão boa o suficiente para a Samsung considerar a solução do Google em vez de uma opção interna para futuros chipsets Exynos, especialmente se ela acredita em um futuro mercado para aplicativos de IA de terceiros.
O cenário atual de IA móvel é um Velho Oeste, com marcas buscando suas próprias combinações exclusivas de hardware e software para ficar à frente da concorrência. Eventualmente, o mercado se decidirá pelas ideias mais práticas, se não necessariamente as mais poderosas, e é quase certo que veremos muito mais homogeneidade entre os dispositivos. Eu não apostaria contra o Google aqui, mesmo que esse boato instável sobre silício de IA não seja verdade para a série Samsung Galaxy S25.