Bolt42

O Google removeu um compromisso de não desenvolver IA para armas ou vigilância de seu site esta semana. A mudança foi notada primeiro pelo Bloomberg. A empresa parece ter atualizado sua página de princípios de IA pública, apagando uma seção intitulada “aplicações que não iremos perseguir”, que ainda estava inclusa até a semana passada.

Ao ser questionada sobre o assunto, a empresa apontou o TechCrunch para um novo post no blog sobre “IA responsável.” O texto menciona, em parte, “acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntas para criar IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.”

Os novos princípios de IA do Google notam que a empresa trabalhará para “mitigar resultados indesejados ou prejudiciais e evitar preconceitos injustos”, além de alinhar a empresa com “princípios amplamente aceitos de direito internacional e direitos humanos.”

Nos últimos anos, os contratos do Google para fornecer serviços de nuvem para as forças militares dos EUA e de Israel geraram protestos internos por parte dos funcionários. A empresa tem mantido que sua IA não é usada para causar dano aos humanos; no entanto, o chefe de IA do Pentágono disse recentemente ao TechCrunch que alguns modelos de IA da empresa estão acelerando a cadeia de morte das forças armadas dos EUA.


    dois × cinco =

    Bolt42