Bolt42

Na segunda-feira, a OpenAI publicou o que chama de um “plano econômico” para a IA: um documento em constante evolução que apresenta políticas que a empresa acredita poder desenvolver em parceria com o governo dos EUA e seus aliados.

O plano, que inclui um prefácio de Chris Lehane, VP de assuntos globais da OpenAI, afirma que os EUA devem agir para atrair bilhões em investimentos para os chips, dados, energia e talentos necessários para “vencer na IA.”

“Hoje, enquanto alguns países marginalizam a IA e seu potencial econômico,” escreveu Lehane, “o governo dos EUA pode abrir caminho para que sua indústria de IA mantenha a liderança global do país em inovação, ao mesmo tempo em que protege a segurança nacional.”

A OpenAI tem chamado repetidamente o governo dos EUA para agir de forma mais substancial em questões de IA e infraestrutura para apoiar o desenvolvimento da tecnologia. O governo federal deixou em grande parte a regulamentação da IA para os estados, uma situação que a OpenAI descreve no plano como insustentável.

Somente em 2024, os legisladores estaduais introduziram quase 700 projetos de lei relacionados à IA, alguns dos quais entram em conflito uns com os outros. Por exemplo, a Lei de Governança Responsável de IA do Texas impoe requisitos de responsabilidade onerosos para desenvolvedores de modelos de IA de código aberto.

O CEO da OpenAI, Sam Altman, também criticou as leis federais existentes, como a Lei CHIPS, que visava revitalizar a indústria de semicondutores dos EUA atraindo investimentos domésticos dos principais fabricantes de chips do mundo. Em uma recente entrevista à Bloomberg, Altman disse que a Lei CHIPS “[não tem sido] tão eficaz quanto esperávamos” e que acredita que há “uma verdadeira oportunidade” para a administração Trump “fazer algo muito melhor como um acompanhamento.”

“Acho que concordo profundamente com [Trump] que é inacreditável como se tornou difícil construir coisas nos Estados Unidos,” disse Altman na entrevista. “Usinas de energia, centros de dados, qualquer coisa desse tipo. Eu entendo como o excesso burocrático se acumula, mas não é útil para o país em geral. É particularmente nocivo quando você pensa sobre o que precisa acontecer para os EUA liderarem a IA. E os EUA realmente precisam liderar a IA.”

Para alimentar os centros de dados necessários para desenvolver e operar a IA, o plano da OpenAI recomenda um aumento “drástico” nos gastos federais com energia e transmissão de dados, e um esforço significativo para a construção de “novas fontes de energia,” como solar, parques eólicos e nuclear. A OpenAI — junto com seus concorrentes de IA — já manifestou anteriormente seu apoio a projetos de energia nuclear, argumentando que são necessários para atender à demanda de eletricidade das fazendas de servidores de próxima geração.

Grandes empresas de tecnologia, como Meta e AWS, tiveram dificuldades em seus esforços nucleares, embora por razões que não têm a ver com a energia nuclear em si.

A curto prazo, o plano da OpenAI propõe que o governo “desenvolva melhores práticas” para a implementação de modelos a fim de proteger contra abusos, “simplifique” o envolvimento da indústria de IA com agências de segurança nacional, e desenvolva controles de exportação que permitam o compartilhamento de modelos com aliados, enquanto “limitem” sua exportação para “nações adversárias.” Além disso, o plano incentiva que o governo compartilhe certas informações relacionadas à segurança nacional, como breves sobre ameaças à indústria de IA, com fornecedores e ajude-os a garantir recursos para avaliar seus modelos em busca de riscos.

“A abordagem do governo federal à segurança e proteção de modelos de fronteira deve simplificar os requisitos,” lê-se no plano. “Exportar modelos de forma responsável … para nossos aliados e parceiros ajudará a estabelecer seus próprios ecossistemas de IA, incluindo suas próprias comunidades de desenvolvedores inovando com IA e distribuindo seus benefícios, enquanto também constrói IA com tecnologia dos EUA, não tecnologia financiada pelo Partido Comunista Chinês.”

A OpenAI já conta com alguns departamentos do governo dos EUA como parceiros e — caso seu plano ganhe destaque entre os formuladores de políticas — poderá adicionar mais. A empresa tem acordos com o Pentágono para trabalhos de cibersegurança e outros projetos relacionados, e se uniu à startup de defesa Anduril para fornecer sua tecnologia de IA para sistemas usados pelo exército dos EUA para combater ataques de drones.

Em seu plano, a OpenAI pede a elaboração de padrões “reconhecidos e respeitados” por outras nações e organismos internacionais em nome do setor privado dos EUA. No entanto, a empresa não endossa regras ou editos obrigatórios. “[O governo pode criar] um caminho definido e voluntário para que as empresas que desenvolvem [IA] trabalhem com o governo para definir avaliações de modelos, testar modelos e trocar informações para apoiar as salvaguardas das empresas,” afirma o plano.

A administração Biden tomou uma abordagem semelhante com sua ordem executiva de IA, que buscou implementar várias normas de segurança e proteção de IA em alto nível e voluntárias. A ordem executiva estabeleceu o Instituto de Segurança em IA dos EUA (AISI), um órgão do governo federal que estuda os riscos em sistemas de IA, que tem parceria com empresas incluindo a OpenAI para avaliar a segurança de modelos. Mas Trump e seus aliados prometeram revogar a ordem executiva de Biden, colocando em risco sua codificação — e o AISI — de serem desfeitos.

O plano da OpenAI também aborda os direitos autorais relacionados à IA, um tema polêmico. A empresa argumenta que os desenvolvedores de IA deveriam poder utilizar “informações disponíveis publicamente,” incluindo conteúdo protegido por direitos autorais, para desenvolver modelos.

A OpenAI, assim como muitas outras empresas de IA, treina modelos com dados públicos disponíveis na web. A empresa possui acordos de licenciamento com várias plataformas e editores e oferece maneiras limitadas para que criadores “optem por sair” do desenvolvimento de seu modelo. No entanto, a OpenAI também disse que seria “impossível” treinar modelos de IA sem usar materiais protegidos por direitos autorais, e vários criadores processaram a empresa por supostamente treinar com suas obras sem permissão.

“[O]utros agentes, incluindo desenvolvedores em outros países, não fazem esforço algum para respeitar ou dialogar com os detentores dos direitos de propriedade intelectual,” lê-se no plano. “Se os EUA e nações que pensam da mesma forma não abordarem esse desequilíbrio por meio de medidas sensatas que ajudem a avançar a IA a longo prazo, o mesmo conteúdo ainda será utilizado para o treinamento de IA em outros lugares, mas em benefício de outras economias. [O governo deve garantir] que a IA tenha a capacidade de aprender com informações universais e publicamente disponíveis, assim como os humanos, ao mesmo tempo em que protege os criadores de réplicas digitais não autorizadas.”

Ainda não se sabe quais partes do plano da OpenAI, se é que alguma, influenciarão a legislação. Mas as propostas são um sinal de que a OpenAI pretende permanecer um jogador chave na corrida por uma política de IA unificadora nos EUA.

Na primeira metade do ano passado, a OpenAI mais do que triplicou seus gastos com lobby, gastando $800.000 em comparação com $260.000 em todo o ano de 2023. A empresa também trouxe ex-líderes do governo para suas fileiras executivas, incluindo a ex-oficial do Departamento de Defesa Sasha Baker, o chefe da NSA Paul Nakasone e Aaron Chatterji, ex-economista chefe do Departamento de Comércio sob o presidente Joe Biden.

À medida que faz contratações e expande sua divisão de assuntos globais, a OpenAI tem sido mais vocal sobre quais leis e regras de IA prefere, apoiando, por exemplo, projetos de lei no Senado que estabelecem um órgão federal de regulamentação para a IA e fornecem bolsas federais para P&D em IA. A empresa também se opôs a projetos de lei, em particular ao SB 1047 da Califórnia, argumentando que ele sufocaria a inovação em IA e afastaria talentos.

A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo em sua caixa de entrada todas as quartas-feiras.


    19 − 9 =

    Bolt42