Bolt42

Participe de nossos boletins informativos diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba mais


A Amazon está apostando na interoperabilidade de agentes e na mistura de modelos para tornar seu novo assistente de voz Alexa mais eficaz, reformulando seu assistente de voz principal com capacidades de agência e tarefas de navegação na web.

Essa nova Alexa foi rebatizada como Alexa+, e a Amazon está enfatizando que esta versão “faz mais”. Por exemplo, agora pode informar proativamente os usuários se um novo livro de seu autor favorito está disponível ou que seu artista favorito está na cidade – e até mesmo se oferece para comprar um ingresso. A Alexa+ raciocina através de instruções e consulta “especialistas” em diferentes bases de conhecimento para responder perguntas e completar tarefas como “Onde está a pizzaria mais próxima do escritório? Meus colegas vão gostar? — Faça uma reserva se você achar que eles gostariam.”

Em outras palavras, a Alexa+ combina agentes de IA, capacidades de uso de computador e conhecimentos que aprende do vasto ecossistema da Amazon para ser o que a Amazon espera que seja um assistente de voz para casa mais capaz e inteligente.

A Alexa+ atualmente opera nos modelos Nova da Amazon e em modelos da Anthropic. No entanto, Daniel Rausch, VP da Alexa e Echo da Amazon, disse à VentureBeat que o dispositivo permanecerá “agnóstico a modelos” e que a empresa poderia introduzir outros modelos (pelo menos modelos disponíveis no Amazon Bedrock) para encontrar o melhor para realizar tarefas.

“[É sobre] escolher as integrações certas para completar uma tarefa, descobrir o que são as instruções corretas, o que é necessário para realmente completar a tarefa, e então orquestrar tudo isso,” disse Rausch. “A grande coisa a entender é que a Alexa continuará a evoluir com os melhores modelos disponíveis em qualquer lugar no Bedrock.”

O que é mistura de modelos?

A mistura de modelos ou roteamento de modelos permite que empresas e outros usuários escolham o modelo de IA apropriado para ser utilizado em uma consulta específica. Os desenvolvedores estão cada vez mais voltando-se para a mistura de modelos para reduzir custos. Afinal, nem toda solicitação precisa ser respondida por um modelo de raciocínio; alguns modelos executam certas tarefas melhor.

A unidade de nuvem e IA da Amazon, AWS, tem sido uma longa defensora da mistura de modelos. Recentemente, anunciou um recurso no Bedrock chamado Roteamento Inteligente de Prompt, que direciona prompts para o melhor modelo e tamanho de modelo para resolver a consulta.

E pode estar funcionando. “Posso dizer que não consigo afirmar para qualquer resposta dada pela Alexa em qualquer tarefa qual modelo está sendo utilizado,” disse Rausch.

Interoperabilidade e orquestração agentes

Rausch disse que a Alexa+ junta agentes de três maneiras diferentes. A primeira é a API tradicional; a segunda é implantar agentes que podem navegar em sites e aplicativos como o uso de computador da Anthropic; a terceira é conectar agentes a outros agentes.

“Mas no centro de tudo isso, orquestrando todas essas diferentes experiências estão esses LLMs (Modelos de Linguagem de Aprendizado) basilares, muito capazes e de alta tecnologia,” disse Rausch.

Ele acrescentou que, se um aplicativo de terceiros já tem seu próprio agente, esse agente ainda pode se comunicar com os agentes que estão trabalhando dentro da Alexa+, mesmo que o agente externo tenha sido construído usando um modelo diferente.

Rausch enfatizou que a equipe da Alexa utilizou as ferramentas e tecnologias do Bedrock, incluindo novas ferramentas de orquestração multi-agentes.

Mike Krieger, CPO da Anthropic, disse à VentureBeat que até mesmo versões anteriores de Claude não conseguiriam realizar o que a Alexa+ pretende.

“Um momento interessante de ‘Por que agora?’ é aparente na demonstração, porque, é claro, os modelos melhoraram,” disse Krieger. “Mas se você tentasse fazer isso com os modelos 3.0 Sonnet ou de nível 3.0, eu diria que você teria dificuldades em muitos aspectos de usar muitas ferramentas diferentes ao mesmo tempo.”

Embora nem Rausch nem Krieger confirmassem qual modelo específico da Anthropic a Amazon usou para construir a Alexa+, vale a pena mencionar que a Anthropic lançou o Claude 3.7 Sonnet na segunda-feira, e ele está disponível no Bedrock.

Grandes investimentos em IA

A primeira interação de muitos usuários com IA ocorreu através de assistentes de voz como Alexa, Google Home ou até mesmo Siri da Apple. Eles permitiram que as pessoas delegassem algumas tarefas, como acender luzes. Eu não possuo um dispositivo Alexa ou Google Home, mas aprendi o quão conveniente ter um pode ser durante uma estadia recente em um hotel. Eu poderia dizer à Alexa para parar o alarme, acender as luzes e abrir uma cortina enquanto ainda estava debaixo das cobertas.

Mas enquanto os dispositivos Alexa, Google Home e Siri se tornaram onipresentes na vida das pessoas, começaram a mostrar sua idade quando a IA generativa se popularizou. De repente, as pessoas queriam respostas mais em tempo real de assistentes de IA e exigiam resoluções de tarefas mais inteligentes, como adicionar várias reuniões a calendários sem a necessidade de muitos comandos.

A Amazon admitiu que o aumento da IA generativa, especialmente dos agentes, possibilitou que a Alexa finalmente alcançasse seu potencial.

“Até este momento, estávamos limitados pela tecnologia no que a Alexa poderia ser,” disse Panos Panay, SVP de dispositivos e serviços da Amazon, durante uma demonstração.

Rausch disse que a esperança é que a Alexa+ continue a melhorar, adicione novos modelos e, esperamos, faça mais pessoas se sentirem confortáveis com o que a tecnologia pode fazer.





    1 × 4 =




    Bolt42