Bolt42

Para combater a percepção de que sua IA “aberta” está ajudando adversários estrangeiros, a Meta anunciou hoje que irá disponibilizar sua série de modelos de IA Llama para agências e contratantes do governo dos EUA na área de segurança nacional.

“Estamos felizes em confirmar que disponibilizaremos o Llama para agências governamentais dos EUA, incluindo aquelas que trabalham em aplicações de defesa e segurança nacional, além de parceiros do setor privado que apoiam seu trabalho”, escreveu a Meta em um post no blog. “Estamos fazendo parcerias com empresas como Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI e Snowflake para levar o Llama às agências governamentais.”

A Oracle, por exemplo, está usando o Llama para processar documentos de manutenção de aeronaves, segundo a Meta. A Scale AI está ajustando o Llama para apoiar missões específicas de equipes de segurança nacional. E a Lockheed Martin está disponibilizando o Llama para seus clientes de defesa para casos de uso como geração de código de computador.

A política da Meta normalmente proíbe os desenvolvedores de usar o Llama para quaisquer projetos relacionados a missões militares, de guerra ou espionagem. Mas a empresa está fazendo uma exceção neste caso, conforme informou à Bloomberg, assim como para agências governamentais semelhantes no Reino Unido, Canadá, Austrália e Nova Zelândia.

Na semana passada, a Reuters relatou que cientistas de pesquisa chineses vinculados ao Exército Popular de Libertação (PLA), o braço militar do partido governante da China, usaram um modelo mais antigo do Llama, o Llama 2, para desenvolver uma ferramenta para aplicações de defesa. Pesquisadores chineses, incluindo dois afiliados a um grupo de P&D do PLA, criaram um chatbot focado em questões militares projetado para coletar e processar inteligência, além de fornecer informações para tomada de decisões operacionais.

A Meta informou à Reuters em um comunicado que o uso do modelo de Llama “único e desatualizado” foi “não autorizado” e contrário à sua política de uso aceitável. No entanto, o relatório acrescentou mais combustível ao debate em andamento sobre os méritos e os riscos da IA aberta.

O uso de IA, seja aberta ou “fechada”, para defesa é controverso.

De acordo com um estudo recente do Instituto AI Now, a IA implantada hoje para inteligência militar, vigilância e reconhecimento apresenta perigos porque depende de dados pessoais que podem ser extraviados e armados por adversários. Ela também possui vulnerabilidades, como preconceitos e a tendência de alucinar, que atualmente não têm remédio, escrevem os co-autores, que recomendam a criação de IA que seja separada e isolada de modelos “comerciais”.

Funcionários de várias grandes empresas de tecnologia, incluindo Google e Microsoft, protestaram contra os contratos de suas empresas para desenvolver ferramentas e infraestrutura de IA para o exército dos EUA.

A Meta afirma que a IA aberta pode acelerar a pesquisa em defesa enquanto promove os “interesses econômicos e de segurança” da América. Mas o exército dos EUA tem sido lento na adoção da tecnologia — e cético quanto ao seu ROI. Até agora, o Exército dos EUA é a única força armada dos EUA com um projeto de IA generativa.

A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.

    5 × 3 =

    Bolt42