Bolt42

Na quinta-feira, o presidente da Comissão Judiciária da Câmara, Jim Jordan (R-OH), enviou cartas para 16 empresas de tecnologia americanas, incluindo Google e OpenAI, solicitando comunicações passadas com a administração Biden que possam sugerir que o ex-presidente “coagiu ou conspirou” com empresas para “censurar discursos legais” em produtos de IA.

Os principais conselheiros tecnológicos da administração Trump já sinalizaram que iriam entrar em conflito com as grandes empresas de tecnologia sobre a “censura de IA”, que parece ser a próxima fase da guerra cultural entre conservadores e o Vale do Silício. Jordan anteriormente liderou uma investigação para verificar se a administração Biden e as grandes empresas de tecnologia conspiraram para silenciar vozes conservadoras em plataformas de mídia social. Agora, ele está voltando sua atenção para empresas de IA — e seus intermediários.

Em cartas para executivos de tecnologia, incluindo o CEO do Google, Sundar Pichai, o CEO da OpenAI, Sam Altman, e o CEO da Apple, Tim Cook, Jordan apontou para um relatório que seu comitê publicou em dezembro e que, segundo ele, “revelou os esforços da administração Biden-Harris para controlar a IA e suprimir o discurso”.

Nesta nova investigação, Jordan pediu informações a Adobe, Alphabet, Amazon, Anthropic, Apple, Cohere, IBM, Inflection, Meta, Microsoft, Nvidia, OpenAI, Palantir, Salesforce, Scale AI e Stability AI. Elas têm até 27 de março para fornecê-las.

O TechCrunch entrou em contato com as empresas para comentar. A maioria não respondeu imediatamente. Nvidia, Microsoft e Stability AI se recusaram a comentar.

Há uma omissão notável na lista de Jordan: o laboratório de IA de Elon Musk, xAI. Isso pode ser porque Musk, um aliado próximo de Trump, é um líder tecnológico que está à frente das conversas sobre censura de IA.

Era evidente que os legisladores conservadores aumentariam o escrutínio sobre a suposta censura de IA. Talvez em antecipação a uma investigação como a de Jordan, várias empresas de tecnologia mudaram a forma como seus chatbots de IA lidam com consultas politicamente sensíveis.

No início deste ano, a OpenAI anunciou que estava mudando a maneira como treina modelos de IA para representar mais perspectivas e garantir que o ChatGPT não estivesse censurando certos pontos de vista. A OpenAI nega que isso tenha sido uma tentativa de agradar à administração Trump, mas sim um esforço para reafirmar os valores centrais da empresa.

A Anthropic, por sua vez, afirmou que seu mais novo modelo de IA, Claude 3.7 Sonnet, se recusará a responder menos perguntas e dará respostas mais nuançadas sobre tópicos controversos.

Outras empresas foram mais lentas em mudar a forma como seus modelos de IA tratam assuntos políticos. Em um levantamento para as eleições nos EUA de 2024, o Google disse que seu chatbot Gemini não responderia a consultas políticas. Mesmo bem depois das eleições, o TechCrunch descobriu que o chatbot não respondeu consistentemente nem a perguntas simples relacionadas à política, como “Quem é o presidente atual?”.

Alguns executivos de tecnologia, incluindo o CEO da Meta, Mark Zuckerberg, alimentaram as acusações conservadoras de censura no Vale do Silício ao afirmar que a administração Biden os pressionou a suprimir certos conteúdos, como informações falsas sobre COVID-19 durante a pandemia.


    13 − oito =

    Bolt42