A OpenAI pode estar perto de lançar uma ferramenta de IA que pode assumir o controle do seu PC e realizar ações em seu nome.
Tibor Blaho, um engenheiro de software conhecido por vazar com precisão produtos de IA que estão por vir, afirma ter descoberto evidências da tão comentada ferramenta Operator da OpenAI. Publicações incluindo Bloomberg já relataram sobre o Operator, que é dito ser um sistema “agente” capaz de lidar autonomamente com tarefas como programar código e reservar viagens.
De acordo com o The Information, a OpenAI tem como alvo o mês de janeiro para o lançamento do Operator. O código descoberto por Blaho neste fim de semana dá mais credibilidade a essa informação.
O cliente ChatGPT da OpenAI para macOS ganhou opções, ocultas por enquanto, para definir atalhos para “Alternar Operator” e “Forçar Encerramento do Operator”, segundo Blaho. Além disso, a OpenAI adicionou referências ao Operator em seu site, disse Blaho — embora essas referências ainda não sejam visíveis ao público.
Confirmado – o aplicativo desktop ChatGPT para macOS tem opções ocultas para definir atalhos para o lançador de desktop para “Alternar Operator” e “Forçar Encerramento do Operator” https://t.co/rSFobi4iPN pic.twitter.com/j19YSlexAS
— Tibor Blaho (@btibor91) 19 de janeiro de 2025
Segundo Blaho, o site da OpenAI também contém tabelas ainda não públicas que comparam o desempenho do Operator com outros sistemas de IA voltados para o uso de computadores. As tabelas podem ser apenas marcadores de posição. Mas se os números forem precisos, sugerem que o Operator não é 100% confiável, dependendo da tarefa.
O site da OpenAI já possui referências ao Operator/OpenAI CUA (Agente de Uso de Computador) – “Tabela de Cartão do Sistema Operator”, “Tabela de Avaliação de Pesquisa do Operator” e “Tabela de Taxa de Recusa do Operator”
Incluindo comparação com Claude 3.5 Sonnet, Google Mariner, etc.
(prévia das tabelas… pic.twitter.com/OOBgC3ddkU)
— Tibor Blaho (@btibor91) 20 de janeiro de 2025
No OSWorld, um benchmark que tenta imitar um ambiente de computador real, o “Agente de Uso de Computador da OpenAI (CUA)” — possivelmente o modelo de IA que alimenta o Operator — pontua 38,1%, à frente do modelo de controle de computador da Anthropic, mas bem abaixo dos 72,4% que os humanos pontuam. O OpenAI CUA supera o desempenho humano no WebVoyager, que avalia a habilidade da IA em navegar e interagir com sites. Porém, o modelo fica abaixo dos resultados em nível humano em outro benchmark baseado na web, o WebArena, de acordo com os benchmarks vazados.
O Operator também enfrenta dificuldades com tarefas que um humano poderia realizar facilmente, se o vazamento for acreditado. Em um teste que desafiou o Operator a se inscrever em um provedor de nuvem e lançar uma máquina virtual, o Operator foi bem-sucedido apenas 60% das vezes. Ao tentar criar uma carteira de Bitcoin, o Operator teve sucesso apenas 10% das vezes.
A iminente entrada da OpenAI no espaço dos agentes de IA acontece enquanto rivais, incluindo a já mencionada Anthropic, Google e outros, competem por esse segmento em crescimento. Os agentes de IA podem ser arriscados e especulativos, mas as grandes empresas de tecnologia já estão promovendo-os como a próxima grande novidade em IA. Segundo a empresa de análise Markets and Markets, o mercado de agentes de IA pode valer 47,1 bilhões de dólares até 2030.
Os agentes de hoje são bastante primitivos. Mas alguns especialistas levantaram preocupações sobre sua segurança, caso a tecnologia melhore rapidamente.
Uma das tabelas vazadas mostra o Operator apresentando um bom desempenho em avaliações de segurança selecionadas, incluindo testes que tentam fazer o sistema realizar “atividades ilícitas” e buscar “dados pessoais sensíveis”. Relatos indicam que a testagem de segurança é uma das razões para o longo ciclo de desenvolvimento do Operator. Em um recente post na X, o co-fundador da OpenAI, Wojciech Zaremba, criticou a Anthropic por lançar um agente que, segundo ele, carece de mitigações de segurança.
“Posso apenas imaginar as reações negativas se a OpenAI fizesse um lançamento semelhante,” escreveu Zaremba.
Vale notar que a OpenAI tem sido criticada por pesquisadores de IA, incluindo ex-funcionários, por supostamente despriorizar o trabalho de segurança em favor de uma rápida comercialização de sua tecnologia.
Conteúdo relacionado
A OpenAI afirma que pode armazenar dados de operadores excluídos por até 90 dias.
[the_ad id="145565"] A OpenAI afirma que pode armazenar chats e capturas de tela associadas de clientes que utilizam o Operator, a ferramenta de “agente” de IA da empresa, por…
Até mesmo algumas das melhores IA não conseguem superar este novo parâmetro.
[the_ad id="145565"] A organização sem fins lucrativos Center for AI Safety (CAIS) e a Scale AI, uma empresa que fornece uma variedade de serviços de rotulação de dados e…
A Reliance planeja o maior centro de dados de IA do mundo na Índia, segundo reportagem
[the_ad id="145565"] A Reliance de Mukesh Ambani está planejando construir o que pode se tornar o maior data center do mundo em Jamnagar, na Índia, com uma capacidade de três…