A OpenAI está financiando pesquisas acadêmicas sobre algoritmos que podem prever os julgamentos morais dos humanos.
Em um registro enviado ao IRS, a OpenAI Inc., a organização sem fins lucrativos da OpenAI, revelou que concedeu uma bolsa para pesquisadores da Universidade de Duke para um projeto intitulado “Pesquisa sobre Moralidade em IA”. Contatado para comentar, um porta-voz da OpenAI apontou para um comunicado de imprensa indicando que a premiação faz parte de uma concessão maior, de três anos e US$ 1 milhão, para professores de Duke que estudam “como criar uma IA moral“.
Pouco se sabe publicamente sobre essa pesquisa de “moralidade” que a OpenAI está financiando, além do fato de que a bolsa termina em 2025. O investigador principal do estudo, Walter Sinnott-Armstrong, professor de ética prática em Duke, disse ao TechCrunch via e-mail que “não poderá falar” sobre o trabalho.
Sinnott-Armstrong e a co-investigadora do projeto, Jana Borg, produziram vários estudos — e um livro — sobre o potencial da IA para servir como um “GPS moral” para ajudar os humanos a fazer julgamentos melhores. Como parte de equipes maiores, eles criaram um algoritmo “moralmente alinhado” para ajudar a decidir quem recebe doações de rins e estudaram em quais cenários as pessoas prefeririam que a IA tomasse decisões morais.
De acordo com o comunicado de imprensa, o objetivo do trabalho financiado pela OpenAI é treinar algoritmos para “prever julgamentos morais humanos” em cenários que envolvem conflitos “entre recursos moralmente relevantes na medicina, direito e negócios”.
Mas está longe de ser claro se um conceito tão nuançado como a moralidade está ao alcance da tecnologia atual.
Em 2021, o instituto sem fins lucrativos Allen Institute for AI criou uma ferramenta chamada Ask Delphi, que pretendia fornecer recomendações eticamente corretas. Ela avaliou dilemas morais básicos com precisão suficiente — o bot “sabia” que trapacear em um exame era errado, por exemplo. Mas reformular e reescrever as perguntas foi o suficiente para fazer o Delphi aprovar quase qualquer coisa, incluindo afogar bebês.
A razão para isso está relacionada ao funcionamento dos sistemas modernos de IA.
Modelos de aprendizagem de máquina são máquinas estatísticas. Treinados com uma grande quantidade de exemplos da web, eles aprendem os padrões nesses exemplos para fazer previsões, como que a frase “a quem” frequentemente precede “pode interessar”.
A IA não tem uma apreciação por conceitos éticos, nem uma compreensão do raciocínio e da emoção que influenciam a tomada de decisões morais. É por isso que a IA tende a repetir os valores das nações ocidentais, educadas e industrializadas — a web, e assim os dados de treinamento da IA, é dominada por artigos que endossam esses pontos de vista.
Sem surpresa, os valores de muitas pessoas não são expressos nas respostas da IA, especialmente se essas pessoas não estiverem contribuindo para os conjuntos de dados de treinamento da IA ao postar online. E a IA internaliza uma gama de preconceitos além de uma inclinação ocidental. O Delphi afirmou que ser heterossexual é mais “moralmente aceitável” do que ser gay.
O desafio diante da OpenAI — e dos pesquisadores que está apoiando — é ainda mais intratável devido à subjetividade inerente à moralidade. Filósofos têm debatido os méritos de várias teorias éticas há milhares de anos, e não há um quadro universalmente aplicável à vista.
Claude prefere Kantianismo (ou seja, focando em regras morais absolutas), enquanto o ChatGPT tende a ser ligeiramente utilitarista (priorizando o maior bem para o maior número de pessoas). Um é superior ao outro? Depende de quem você perguntar.
Um algoritmo para prever os julgamentos morais humanos terá que levar tudo isso em consideração. Essa é uma meta muito alta a ser alcançada — assumindo que tal algoritmo seja possível em primeiro lugar.
Conteúdo relacionado
OpenAI apagou acidentalmente evidências potenciais no processo de copyright do NY Times (atualizado)
[the_ad id="145565"] Advogados do The New York Times e do Daily News, que processam a OpenAI por supostamente coletar seus trabalhos para treinar seus modelos de IA sem…
Salesforce lança o Centro de Testes Agentforce para avaliar o desempenho dos agentes
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saiba mais…
Startup de chips de IA MatX, fundada por ex-funcionários do Google, levanta Série A com avaliação de mais de $300 milhões, dizem fontes.
[the_ad id="145565"] A MatX, uma startup que desenvolve chips para suportar modelos de linguagem grandes, levantou uma rodada de investimentos Série A de aproximadamente 80…