Uma análise detalhada do código do aplicativo do Google, na versão 17.18.22, revelou a existência de um seletor oculto contendo sete modelos diferentes de inteligência artificial dentro da plataforma Gemini Live. A descoberta, realizada por veículos especializados que monitoram códigos internos do Google, intensificou as expectativas para o Google I/O 2026, conferência anual da empresa marcada para os dias 19 e 20 de maio, no Shoreline Amphitheatre, em Mountain View, na Califórnia.
O vazamento indica que o Google está preparando uma reformulação significativa na forma como os usuários interagem com o Gemini Live, sua plataforma de assistência por inteligência artificial. A existência de múltiplas variantes de modelos sugere que o usuário poderá escolher experiências específicas de acordo com o tipo de conversa ou tarefa que deseja realizar, algo que ainda não existe no produto atual.
A descoberta também reforça a estratégia cada vez mais agressiva do Google no setor de inteligência artificial, em um cenário de competição acirrada com empresas como a OpenAI, responsável pelo ChatGPT, a Microsoft e a Anthropic, criadora do Claude. O Gemini tem sido tratado internamente como peça central do futuro de todo o ecossistema da empresa.
Entre os sete modelos encontrados no código, há referências diretas a funcionalidades ligadas a raciocínio avançado. Essa abordagem permitiria que a inteligência artificial dedicasse mais tempo à análise de informações antes de gerar uma resposta, resultando em interações mais completas, contextualizadas e precisas. Em vez de responder instantaneamente de forma superficial, o sistema poderia processar dados com maior profundidade.
Análises anteriores, conduzidas pelo 9to5Google e pelo Android Authority no início deste ano, já haviam identificado termos como Live Thinking Mode e Live Experimental Features nos códigos internos do aplicativo. Essas expressões indicam que o Google está desenvolvendo um modo de operação no qual a IA pode pensar por mais tempo antes de entregar uma resposta ao usuário, uma tendência que tem ganhado força no mercado de modelos de linguagem.
Além do raciocínio aprofundado, os códigos revelam funções experimentais relacionadas a memória multimodal. Na prática, isso significa que a inteligência artificial poderá lembrar contextos anteriores que envolvam não apenas texto, mas também voz, imagens e possivelmente vídeo. A capacidade de integrar diferentes tipos de dados em uma mesma conversa representa um avanço relevante na forma como assistentes de IA operam hoje.
Outro ponto identificado na desmontagem do aplicativo diz respeito a melhorias no tratamento de ruídos externos durante interações por voz. O Gemini Live também teria capacidade de gerar respostas baseadas no que o usuário está vendo em tempo real, com personalização integrada aos demais aplicativos do Google. Essa integração permitiria que a IA compreendesse melhor o ambiente ao redor da pessoa e adaptasse suas respostas de maneira mais fluida.
Um dos modelos encontrados no código recebeu o nome de Omni, supostamente vinculado à geração de vídeos por inteligência artificial. Embora não haja confirmação oficial sobre essa funcionalidade, a presença do nome nos códigos internos sugere que o Google pode estar se preparando para competir no segmento de criação audiovisual com IA, um mercado que tem crescido rapidamente e atraiu investimentos de várias empresas.
As referências descobertas também indicam que o Google está construindo uma estrutura modular para o Gemini. Essa arquitetura permitiria ativar diferentes modelos conforme a necessidade do usuário, o que explicaria a existência do seletor com sete variantes ocultas. A modularidade representa uma mudança de paradigma em relação ao modelo único que orienta a maioria dos assistentes de IA disponíveis atualmente.
Nas últimas semanas, desmontagens anteriores já haviam revelado mudanças significativas na interface do aplicativo Gemini. Algumas versões de teste indicam que o Google pretende simplificar a experiência visual, abandonando certas opções antigas de voz e adotando uma interface Live menos carregada, sem elementos em tela cheia, mais integrada ao sistema Android. O objetivo parece ser tornar o Gemini um assistente permanente, operando em segundo plano no uso diário do celular.
O Google I/O 2026 deverá ser um dos eventos mais importantes da empresa nos últimos anos. No convite oficial enviado aos desenvolvedores, a companhia destacou atualizações do Gemini, avanços em codificação agêntica e novas experiências alimentadas por inteligência artificial. A codificação agêntica refere-se a sistemas de IA capazes de executar tarefas de programação de forma autônoma, com múltiplas etapas, sem necessidade de intervenção constante do usuário.
Além das novidades do Gemini, o evento deve apresentar oficialmente o Aluminium OS, um novo sistema operacional baseado em Android desenvolvido para notebooks. A proposta é unificar o ecossistema da empresa, aproximando computadores, celulares e dispositivos inteligentes sob uma mesma arquitetura de software. Há também expectativa em torno do Android XR, plataforma voltada para realidade estendida e óculos inteligentes, com rumores de que o Google poderá mostrar hardware próprio ou parcerias com dispositivos que integrem IA em tempo real.
Rumores recentes ganharam força em torno do possível anúncio do Gemini 3.5 Pro durante o evento. Analistas especializados e mercados de previsão passaram a apostar com força na chegada do novo modelo. Os indícios aumentaram depois que referências ao Gemini 3.2 Flash foram encontradas no aplicativo do Gemini para iPhone e em informações de precificação do AI Studio, plataforma do Google para desenvolvedores de IA. A presença dessas referências sugere que múltiplas versões do Gemini já estão em preparação para lançamento.
Vazamentos como este se tornaram uma tradição antes das conferências anuais do Google. Como muitas funcionalidades começam a ser adicionadas ao código dos aplicativos antes de estarem prontas para o público, desenvolvedores e analistas conseguem identificar antecipadamente ferramentas em fase de testes. Nos últimos meses, praticamente todas as grandes novidades relacionadas ao Gemini apareceram primeiro em desmontagens, incluindo o novo visual do aplicativo e os recursos experimentais agora descobertos. O Gemini já não parece ser apenas um chatbot experimental, mas uma camada central que o Google pretende integrar ao Android, à busca e aos futuros dispositivos inteligentes da empresa.