Fei-Fei Li, a cientista da computação de Stanford e fundadora de startups, às vezes conhecida como “a Madrinha da IA”, delineou “três princípios fundamentais para o futuro da formulação de políticas de IA” antes da próxima Cúpula de Ação em IA em Paris.
Primeiramente, Li afirmou que as políticas devem ser baseadas em “ciência, e não em ficção científica.” Em outras palavras, os formuladores de políticas devem focar na realidade atual da IA, e não em cenários futuristas grandiosos, “sejam eles utopias ou apocalipses.”
Em particular, Li destacou que é crucial que os formuladores de políticas entendam que chatbots e programas de co-pilotagem “não são formas de inteligência com intenções, livre-arbítrio ou consciência,” para que possam evitar “a distração de cenários distantes” e se concentrar, em vez disso, em “desafios vitais.”
Em segundo lugar, ela argumentou que as políticas devem ser “pragmáticas, e não ideológicas,” o que significa que devem ser elaboradas para “minimizar consequências não intencionais enquanto incentivam a inovação.”
Por último, Li afirmou que essas políticas devem capacitar “todo o ecossistema de IA — incluindo comunidades de código aberto e a academia.”
“O acesso aberto a modelos de IA e ferramentas computacionais é crucial para o progresso,” disse ela. “Limitar isso criará barreiras e atrasará a inovação, particularmente para instituições acadêmicas e pesquisadores que têm menos recursos do que seus equivalentes do setor privado.”
Conteúdo relacionado
Anthropic transforma a abordagem da IA na educação: o Modo de Aprendizagem do Claude faz os alunos refletirem.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas novidades e conteúdo exclusivo sobre cobertura de IA de liderança no setor. Saiba mais……
Anthropic lança um plano de chatbot de IA para faculdades e universidades
[the_ad id="145565"] A Anthropic anunciou na quarta-feira que está lançando uma nova camada Claude para Educação, como resposta ao plano ChatGPT Edu da OpenAI. A nova camada é…
O artigo de 145 páginas da DeepMind sobre segurança em AGI pode não convencer os céticos.
[the_ad id="145565"] O Google DeepMind publicou na quarta-feira um documento exaustivo sobre sua abordagem de segurança para AGI, definida de forma ampla como uma IA capaz de…