Rita El Khoury / Autoridade Android
DR
- O Google está trabalhando para dar ao Gemini Live a capacidade de conversar sobre um vídeo do YouTube.
- Essa capacidade permitiria que você tivesse conversas prolongadas, ao contrário do chip contextual “Pergunte sobre este vídeo”.
- O recurso foi projetado para ser uma forma mais natural de ter uma conversa contínua sobre o vídeo.
O Google parece estar trabalhando para melhorar ainda mais a capacidade do Gemini de fornecer informações sobre um vídeo do YouTube. Em breve, o LLM poderá permitir que você tenha uma longa conversa sobre o vídeo.
Um Desmontagem do APK ajuda a prever recursos que podem chegar a um serviço no futuro com base no código de trabalho em andamento. No entanto, é possível que tais recursos previstos não cheguem ao lançamento público.
Quando você abre a sobreposição do Gemini enquanto assiste a um vídeo do YouTube, o assistente de IA terá um chip contextual acima que diz “Pergunte sobre este vídeo”. Tocar neste chip permitirá que você faça perguntas sobre o que está no vídeo. Por exemplo, se você quiser saber qual tipo de laptop é melhor em nosso vídeo recente sobre laptop Snapdragon X Elite ou Lunar Lake, você pode fazer essa pergunta e a IA fará o possível para resumir a resposta.
Na versão 15.46.31.ve.arm64 beta do Google app, notamos uma sequência de código fazendo referência ao “modo de conversa”. O termo “modo de conversação” está relacionado ao Gemini Live, o que é confirmado na segunda sequência que desenterramos.
Código
<string name="assistant_robin_conversation_mode_youtube_chip_type">YouTube</string>
<string name="assistant_robin_conversation_mode_volume_dialog_message">Before going Live, increase your device's volume so you can hear Gemini</string>
Este recurso foi projetado para permitir que você tenha uma conversa mais natural e contínua com o Gemini Live sobre um vídeo do YouTube. Portanto, embora o chip contextual forneça uma resposta única, esta nova função permite que você se aprofunde, permitindo que você faça perguntas de acompanhamento.
Esta funcionalidade parece ainda ser um trabalho em andamento. Não conseguimos encontrar pistas adicionais sobre o recurso.