A Apple está desenvolvendo uma nova versão de seu assistente de voz, Siri, impulsionada por modelos de linguagem avançados (LLMs), de acordo com fontes citadas pela Bloomberg. Essa versão mais conversacional da Siri faz parte da tentativa da Apple de alcançar o ritmo da IA, onde concorrentes lançaram recursos impressionantes, como o Gemini Live do Google, que é muito mais natural para se conversar do que a Siri.
O novo assistente deverá substituir completamente a interface da Siri que os usuários utilizam atualmente, e a Apple planeja lançar o recurso na primavera de 2026. O recurso parece semelhante ao Modo de Voz Avançado da OpenAI, mas com o mesmo acesso às informações pessoais e aplicativos que a Siri possui atualmente.
Até lá, a Apple está contando com terceiros para alimentar os recursos avançados de IA do iPhone. O ChatGPT da OpenAI estará disponível dentro da Apple Intelligence em dezembro, e a Apple supostamente discutiu acordos semelhantes com outros fornecedores de IA, como Google e Anthropic.
Conteúdo relacionado
A H2O.ai melhora a precisão de agentes de IA com modelos preditivos
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura da indústria de IA. Saiba mais A…
Anthropic levanta mais $4 bilhões da Amazon e torna a AWS seu ‘principal’ parceiro de treinamento.
[the_ad id="145565"] A Anthropic, rival próximo da OpenAI, levantou mais $4 bilhões da Amazon e concordou em tornar os Serviços Web da Amazon (AWS), a divisão de computação em…
Google Cloud lança o Espaço de Agentes de IA em meio à crescente concorrência
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA de ponta. Saiba mais…