O problema com a maioria das tentativas de regulamentar a IA até agora é que os legisladores estão se concentrando em uma experiência futura e mítica de IA, em vez de realmente entender os novos riscos que a IA introduz.
Assim argumentou o sócio-gerente da Andreessen Horowitz, o VC Martin Casado, para uma multidão em pé na TechCrunch Disrupt 2024 na semana passada. Casado, que lidera a prática de infraestrutura de $1,25 bilhão da a16z, investiu em startups de IA como World Labs, Cursor, Ideogram e Braintrust.
“Tecnologias transformadoras e regulamentação têm sido um discurso contínuo por décadas, certo? A questão com todo o discurso sobre IA é que parece ter surgido do nada,” ele disse à plateia. “Eles estão tentando conjurar novas regulamentações sem aprender com essas lições.”
Por exemplo, ele afirmou: “Você já viu as definições de IA nessas políticas? Como, nós nem conseguimos definir isso.”
Casado estava entre as muitas vozes do Vale do Silício que celebraram quando o governador da Califórnia, Gavin Newsom, vetou a tentativa de lei de governança de IA do estado, o SB 1047. A lei queria implementar um chamado interruptor de emergência em supergrandes modelos de IA — ou seja, algo que os desligasse. Aqueles que se opuseram ao projeto disseram que ele era tão mal redigido que, em vez de nos salvar de um monstro de IA imaginário, simplesmente confundiría e impediu o vibrante cenário de desenvolvimento de IA da Califórnia.
“Eu frequentemente ouço fundadores hesitarem em se mudar para cá por causa do que isso sinaliza sobre a atitude da Califórnia em relação à IA — que preferimos uma má legislação baseada em preocupações de ficção científica em vez de riscos tangíveis,” ele postou no X algumas semanas antes do veto do projeto.
Embora essa lei estadual específica esteja morta, o fato de que ela existiu ainda incomoda Casado. Ele está preocupado que mais projetos, construídos da mesma forma, possam surgir se os políticos decidirem se curvar aos medos da população em relação à IA, em vez de governar o que a tecnologia realmente está fazendo.
Ele compreende a tecnologia de IA melhor do que a maioria. Antes de se juntar à renomada empresa de capital de risco, Casado fundou outras duas empresas, incluindo uma empresa de infraestrutura de rede, a Nicira, que ele vendeu para VMware por $1,26 bilhões há um pouco mais de uma década. Antes disso, Casado foi especialista em segurança de computadores no Laboratório Nacional Lawrence Livermore.
Ele afirma que muitas das regulamentações propostas para IA não vieram, nem foram apoiadas, por muitos que entendem bem a tecnologia de IA, incluindo acadêmicos e o setor comercial que desenvolve produtos de IA.
“Você precisa ter uma noção de risco marginal que seja diferente. Como, como a IA de hoje é diferente de alguém usando o Google? Como a IA de hoje é diferente de alguém simplesmente navegando na internet? Se temos um modelo de como é diferente, você consegue ter uma noção de risco marginal, e então pode aplicar políticas que abordem esse risco marginal,” ele disse.
“Acho que estamos um pouco cedo antes de começarmos a empilhar um monte de regulamentação sem realmente entender o que vamos regular,” ele argumenta.
O contra-argumento — e um que várias pessoas na audiência levantaram — era que o mundo realmente não viu os tipos de danos que a internet ou as redes sociais poderiam causar antes que esses danos se tornassem evidentes. Quando o Google e o Facebook foram lançados, ninguém sabia que eles dominariam a publicidade online ou coletariam tantos dados sobre indivíduos. Ninguém entendeu coisas como bullying virtual ou câmaras de eco quando as redes sociais eram jovens.
Os defensores da regulamentação da IA agora frequentemente apontam para essas circunstâncias passadas e dizem que essas tecnologias deveriam ter sido regulamentadas desde o início.
A resposta de Casado?
“Há um robusto regime regulatório que já existe e que foi desenvolvido ao longo de 30 anos,” e que está bem equipado para construir novas políticas para IA e outras tecnologias. É verdade que, apenas em nível federal, os órgãos reguladores incluem tudo, desde a Comissão Federal de Comunicações até o Comitê da Câmara sobre Ciência, Espaço e Tecnologia. Quando a TechCrunch perguntou a Casado na quarta-feira após a eleição se ele mantém essa opinião — que a regulamentação da IA deve seguir o caminho já traçado pelos órgãos reguladores existentes — ele disse que a mantém.
Mas ele também acredita que a IA não deve ser alvo devido a questões com outras tecnologias. As tecnologias que causaram os problemas devem ser o alvo em vez disso.
“Se erramos nas redes sociais, você não pode corrigir isso colocando sobre a IA,” ele disse. “As pessoas da regulamentação da IA dizem: ‘Oh, erramos nas sociais, portanto acertaremos na IA,’ o que é uma afirmação sem sentido. Vamos corrigir nas sociais.”
Conteúdo relacionado
Tudo o que você precisa saber sobre o chatbot de IA
[the_ad id="145565"] O ChatGPT, o chatbot gerador de texto da OpenAI, rapidamente ganhou popularidade desde seu lançamento em novembro de 2022. O que começou como uma…
A Nous Research está treinando um modelo de IA utilizando máquinas distribuídas pela internet.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA líder de mercado. Saiba mais…
Meta afirma que conteúdo gerado por IA representou menos de 1% das desinformações relacionadas às eleições em seus aplicativos.
[the_ad id="145565"] No início do ano, havia grandes preocupações sobre como IA generativa poderia ser usada para interferir nas eleições globais, espalhando propaganda e…