Bolt42

O CEO da OpenAI, Sam Altman, surpreendeu o mundo da tecnologia na quinta-feira ao lançar o Operator, o primeiro agente de IA da sua empresa capaz de agir de forma autônoma na web.

No entanto, a OpenAI não é a única empreitada de Altman que busca capitalizar a popularidade dos agentes de IA.

O projeto World de Altman agora deseja criar ferramentas que conectem determinados agentes de IA às personas online das pessoas, permitindo que outros usuários verifiquem se um agente está agindo em nome de alguém, de acordo com o diretor de produto, Tiago Sada.

World, um projeto web3 de Altman e Alex Blania da Tools for Humanity, que anteriormente era conhecido como Worldcoin, baseia-se na ideia de que, eventualmente, será impossível distinguir humanos de agentes de IA na internet. Para tratar disso, o World busca criar ferramentas digitais de “prova de humanidade”. Após escanear a sua íris com uma esfera metálica prateada, o World fornecerá um identificador único na blockchain para verificar que você é humano.

Vale ressaltar que a Tools for Humanity tem uma reputação por mudanças de rumo e por se envolver em controvérsias. O World começou como um projeto de criptomoeda, foi temporariamente banido em alguns países e foi recentemente obrigado a permitir que os europeus apagassem seus dados biométricos mediante solicitação. Em outubro, o projeto removeu “coin” de seu nome, sinalizando que se concentrará mais na verificação humana e menos em criptomoedas.

Embora a verificação de agentes de IA para que possam agir em nome das pessoas possa parecer uma divergência da missão do World de verificar humanos com IDs web3, Sada afirma que é um próximo passo crítico e lógico para o projeto.

“Essa ideia de delegar sua ‘prova de personalidade’ a um agente e deixá-lo agir em seu nome é realmente super importante,” disse ele em uma entrevista ao TechCrunch. “Em vez de permitir apenas pessoas que você acha que são humanas [no seu site], você também permitirá agentes de IA que representam um humano real. É aqui que entra o World ID.”

A tecnologia de ID do World também poderia ser usada para licenciar agentes de IA a agir em seu nome, disse Sada. Em um post recente no blog, o projeto observa que suas ferramentas de prova de humanidade não apenas distinguirão humanos de bots, como fazem hoje, mas poderão ajudar as pessoas a controlar uma rede de agentes de IA online.

O World parece estar expandindo suas ferramentas para verificar “ações digitais” que pertencem a uma pessoa, mesmo que não tenham vindo de sua conta. O projeto afirma que suas ferramentas para IA se mostrarão essenciais em 2025, mas Sada disse que a empresa “precisará ver” se alguma dessas ferramentas envolve vincular agentes de IA às pessoas. No entanto, parece que a startup está considerando isso.

“Existem certos aplicativos onde não importa se uma pessoa real está usando, ou se um agente está agindo em seu nome. Você só quer saber que há uma pessoa endossando aquela interação,” disse Sada.

Muitos sites hoje utilizam ferramentas da Cloudflare e da Snowflake para bloquear bots de IA que tentam coletar dados. Usuários iniciais do Operator da OpenAI descobriram que alguns sites bloquearam o novo agente da OpenAI por padrão.

Mas Sada afirma que as empresas podem reconsiderar suas permissões para permitir que alguns agentes de IA utilizem seus serviços.

“No final das contas, as empresas querem vender mais. Elas querem atender mais usuários,” disse Sada. “Se as vendas de um aplicativo de entrega aumentam porque há um monte de agentes respondendo em nome de seus usuários, a empresa ficará feliz com isso.”

Esse exemplo é bastante oportuno. A OpenAI acabou de anunciar colaborações com a Uber, Instacart e DoorDash para permitir que seu novo agente Operator utilize suas plataformas. Essa é uma mudança significativa para essas empresas, que estavam acostumadas a atender usuários em seus aplicativos. Em vez disso, as empresas online agora parecem estar se preparando para um futuro em que algumas das interações dos usuários serão facilitadas por agentes de IA.

“Se um agente entrar com uma marca de verificação azul e disser, ‘Sim, sou um bot. Não se preocupe, não entre em pânico. Estou aqui para comprar um cachorro-quente para o Tiago,’ então essas empresas podem deixar esse [agente] entrar,” disse Sada.

O problema em deixar todos os agentes de IA, ou todos os bots da internet, entrar é que isso pode abrir seu site para ataques DDoS, golpes ou outros maus atores. Permitindo a entrada de apenas alguns agentes de IA por pessoa, Sada afirma que as empresas podem alcançar novos usuários através desses agentes sem arriscar a integridade de seus sites.

As muitas empreitadas de Altman podem parecer aleatórias, mas, vistas em conjunto, criam uma rede de ferramentas para alimentar um futuro em que a IA, e por extensão a OpenAI, esteja no centro. Sua startup de fusão nuclear, Helion Energy, poderia um dia fornecer a energia para alimentar os data centers da OpenAI, e a startup de ciência da longevidade que ele apoia, Retro Biosciences, já está usando os modelos da OpenAI para tentar aumentar a longevidade humana.

Uma questão-chave em torno do World é se suas ferramentas um dia se integrarão mais profundamente com a OpenAI. Altman fala nos eventos do World, supostamente conversa com a equipe a cada semana e o projeto continua a se aprofundar em seu trabalho com IA.

As plataformas parecem estar se alinhando para permitir que os agentes da OpenAI utilizem seus serviços, mas o World pode desempenhar um papel significativo na verificação desses agentes e de outros.

A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada toda quarta-feira.


    treze − onze =

    Bolt42