No novo livro de Reid Hoffman, Superagency: O Que Poderia Dar Certo em Nosso Futuro com IAe, o co-fundador do LinkedIn argumenta que a IA pode ampliar a agência humana — proporcionando mais conhecimento, melhores empregos e vidas aprimoradas — em vez de reduzi-la.
Isso não significa que ele ignore os potenciais lados negativos da tecnologia. Na verdade, Hoffman (que escreveu o livro com Greg Beato) descreve sua perspectiva sobre a IA, e sobre a tecnologia de forma mais geral, como focada em “tomar riscos inteligentes” em vez de otimismo cego.
“Em geral, as pessoas se concentram demais no que pode dar errado e de menos no que pode dar certo,” disse Hoffman.
E embora ele afirme que apoia a “regulação inteligente”, argumenta que um processo de “implantação iterativa” que coloca ferramentas de IA nas mãos de todos e responde ao feedback é ainda mais importante para garantir resultados positivos.
“Parte da razão pela qual os carros podem ir mais rápido hoje do que quando foram feitos pela primeira vez, é porque … descobrimos uma série de inovações em torno de freios, airbags, para-choques e cintos de segurança,” disse Hoffman. “A inovação não é apenas insegura, ela na verdade leva à segurança.”
Em nossa conversa sobre seu livro, também discutimos os benefícios que Hoffman (que também foi membro do conselho da OpenAI, membro atual do conselho da Microsoft e parceiro na Greylock) já está vendo da IA, o impacto potencial da tecnologia nas mudanças climáticas e a diferença entre um pessimista em IA e um otimista.
Esta entrevista foi editada para comprimento e clareza.
Você já escreveu outro livro sobre IA, Impromptu. Com Superagency, o que você queria dizer que ainda não havia dito?
Assim, Impromptu estava principalmente tentando mostrar que a IA poderia [proporcionar] amplificação relativamente fácil [da] inteligência, e estava mostrando isso tão bem quanto dizendo. Superagency é muito mais sobre a questão de como, na verdade, nossa agência humana é grandemente aprimorada, não apenas por superpoderes — que é obviamente parte disso — mas pela transformação de nossas indústrias, nossas sociedades, à medida que múltiplos de nós todos obtêm esses superpoderes a partir dessas novas tecnologias.
O discurso geral em torno dessas coisas sempre começa com um pessimismo pesado e depois se transforma em — chamem isso de um novo estado elevado da humanidade e da sociedade. A IA é apenas a mais recente tecnologia disruptiva nisso. Impromptu não abordou as preocupações tanto quanto … de chegar a esse futuro mais humano.
Você abre dividindo as diferentes visões sobre IA nessas categorias — gloomers, doomers, zoomers, bloomers. Podemos explorar cada um deles, mas começaremos com um bloomer, uma vez que é a categoria na qual você se classifica. O que é um bloomer e por que você se considera um?
Acredito que um bloomer é inerentemente otimista em relação à tecnologia e [acredita] que construir tecnologias pode ser muito, muito bom para nós como indivíduos, como grupos, como sociedades, como humanidade, mas isso [não significa] que tudo que você pode construir é ótimo.
Portanto, você deve navegar com a tomada de riscos, mas riscos inteligentes em vez de riscos cegos, e que você se envolve em diálogo e interação para orientar. É parte da razão pela qual falamos muito sobre implantação iterativa no livro, porque a ideia é que parte de como você se envolve nessa conversa com muitas pessoas é por meio da implantação iterativa. Você está se envolvendo com isso para dizer: “Oh, se tiver essa forma, será muito, muito melhor para todos. E torna esses casos ruins mais limitados, tanto na prevalência deles quanto no impacto que podem ter.”
E quando você fala sobre orientar, tem a regulação, que abordaremos, mas você parece achar que a maior promessa está nesse tipo de implantação iterativa, particularmente em escala. Você acha que os benefícios estão apenas embutidos — ou seja, se colocarmos IA nas mãos da maioria das pessoas, isso é inerentemente pequeno-d democrático? Ou você acha que os produtos precisam ser projetados de tal forma que as pessoas possam ter entrada?
Bem, eu acho que isso pode depender dos diferentes produtos. Mas uma das coisas [que estamos] tentando ilustrar no livro é o dizer que apenas ser capaz de se envolver e falar sobre o produto — incluindo usar, não usar, utilizar de certas maneiras — é na verdade, de fato, interagir e ajudar a moldar [isso], certo? Porque as pessoas que os constroem estão observando aquele feedback. Eles estão olhando: Você se envolveu? Você não se envolveu? Eles estão ouvindo as pessoas online e a imprensa e tudo mais, dizendo: “Ei, isso é ótimo.” Ou, “Ei, isso realmente é ruim.” Isso é uma enorme quantidade de orientação e feedback de muitas pessoas, separado do que você obtém dos meus dados que podem ser incluídos na iteração, ou que eu poderia votar ou de alguma forma expressar feedback direto e direcional.
Eu suponho que estou tentando explorar como esses mecanismos funcionam porque, como você observa no livro, especialmente com o ChatGPT, ele se tornou extremamente popular. Então, se eu disser: “Ei, eu não gosto dessa coisa sobre o ChatGPT” ou “Tenho uma objeção a isso e não vou usar”, isso simplesmente será ofuscado por tantas pessoas usando-o.
Parte disso é que ter centenas de milhões de pessoas participando não significa que você irá responder a todas as objeções de cada pessoa. Algumas pessoas podem dizer: “Nenhum carro deve ir mais rápido que 20 milhas por hora.” Bem, é bom que você pense assim.
É essa agregação de [feedback]. E na agregação se, por exemplo, você expressa algo que é um desafio ou hesitação ou uma mudança, mas então outras pessoas começam a expressar isso também, então é mais provável que isso seja ouvido e mudado.
E parte disso é que a OpenAI compete com a Anthropic e vice-versa. Eles estão ouvindo com cuidado não apenas o que estão ouvindo agora, mas … orientando-se em direção a coisas valiosas que as pessoas querem e também se afastando de coisas desafiadoras que as pessoas não querem.
Podemos querer tirar proveito dessas ferramentas como consumidores, mas elas podem ser potencialmente prejudiciais de maneiras que não são necessariamente visíveis para mim como consumidor. Esse processo de implantação iterativa é algo que vai abordar outras preocupações, talvez preocupações sociais, que não estão aparecendo para consumidores individuais?
Bem, parte da razão pela qual escrevi um livro sobre Superagency é para que as pessoas realmente [tenham] o diálogo sobre preocupações sociais também. Por exemplo, as pessoas dizem: “Bem, eu acho que a IA vai fazer com que as pessoas desistam de sua agência e [desistam] de tomar decisões sobre suas vidas.” E então as pessoas vão e brincam com o ChatGPT e dizem: “Bem, eu não tenho essa experiência.” E se muito poucos de nós realmente estamos experimentando [essa perda de agência], então essa é a argumentação quase contra isso, certo?
Você também fala sobre regulação. Parece que você está aberto à regulação em alguns contextos, mas está preocupado que a regulação possa potencialmente sufocar a inovação. Pode falar mais sobre como você acha que a regulação da IA benéfica poderia ser?
Então, há algumas áreas, porque eu realmente sou positivo sobre regulação inteligente. Uma área é quando você tem coisas muito específicas e muito importantes que você está tentando prevenir — terrorismo, cibercrime, outros tipos de coisas. Você está tentando, essencialmente, prevenir isso realmente ruim, mas permitir uma ampla gama de outras coisas, para que você possa discutir: Quais são as coisas que estão suficientemente direcionadas a esses resultados específicos?
Além disso, há um capítulo sobre [como] inovação é segurança também, porque à medida que você inova, você cria novos recursos de segurança e alinhamento. E é importante chegar lá também, porque parte da razão pela qual os carros podem ir mais rápido hoje do que quando foram feitos pela primeira vez, é porque dizemos: “Oh, descobrimos uma série de inovações em torno de freios e airbags e para-choques e cintos de segurança.” A inovação não é apenas insegura, ela realmente leva à segurança.
O que eu encorajo as pessoas, especialmente em um ambiente regulatório rápido e iterativo, é articula o que é sua preocupação específica como algo que você pode medir e comece a medi-la. Porque então, se você começar a ver que a medição cresce de uma maneira forte ou alarmante, você pode dizer: “Ok, vamos explorar isso e ver se há coisas que podemos fazer.”
Há outra distinção que você faz, entre os gloomers e os doomers — os doomers sendo pessoas que estão mais preocupadas com o risco existencial da superinteligência, enquanto os gloomers se preocupam mais com os riscos de curto prazo em torno de empregos, direitos autorais, qualquer número de coisas. As partes do livro que eu li parecem estar mais focadas em abordar as críticas dos gloomers.
Eu diria que estou tentando direcionar o livro para dois grupos. Um grupo é qualquer um que esteja entre a ceticismo em relação à IA — que inclui gloomers — até curiosos sobre a IA.
E então o outro grupo são tecnólogos e inovadores dizendo: “Olha, parte do que realmente importa para as pessoas é a agência humana. Então, vamos levar isso como uma lente de design em termos do que estamos construindo para o futuro. E ao levar isso como uma lente de design, também podemos ajudar a construir uma tecnologia que aumente ainda mais a agência.”
Quais são alguns exemplos atuais ou futuros de como a IA poderia estender a agência humana em vez de reduzi-la?
Parte do que o livro estava tentando fazer, parte de Superagency, é que as pessoas tendem a reduzir isso a: “Quais superpoderes eu ganho?” Mas elas não percebem que superagência é quando muitas pessoas obtêm superpoderes, eu também me beneficio disso.
Um exemplo canônico são os carros. Oh, eu posso ir a outros lugares, mas, aliás, quando outras pessoas vão a outros lugares, um médico pode vir à sua casa quando você não pode sair e fazer uma consulta domiciliar. Portanto, você está obtendo superagência, coletivamente, e isso é parte do que é valioso hoje.
Acho que já temos, com as ferramentas de IA de hoje, um monte de superpoderes, que podem incluir habilidades de aprendizagem. Eu não sei se você fez isso, mas eu fui e disse: “Explique mecânica quântica para uma criança de cinco anos, para uma de 12 anos, para uma de 18 anos.” Isso pode ser útil em — você aponta a câmera para algo e diz: “O que é isso?” Como identificar um cogumelo ou identificar uma árvore.
Mas, obviamente, há toda uma série de diferentes tarefas linguísticas. Quando estou escrevendo Superagency, eu não sou um historiador da tecnologia, sou tecnólogo e inventor. Mas enquanto pesquiso e escrevo sobre essas coisas, então eu digo: “Ok, o que um historiador da tecnologia diria sobre o que escrevi aqui?”
Quando você fala sobre alguns desses exemplos no livro, você também diz que quando recebemos novas tecnologias, às vezes, habilidades antigas caem em desuso porque não as precisamos mais, e desenvolvemos novas habilidades.
E na educação, talvez isso torne a informação acessível para pessoas que, de outra forma, nunca a teriam. Por outro lado, você ouve esses exemplos de pessoas que foram treinadas e acostumadas pelo ChatGPT a simplesmente aceitar uma resposta de um chatbot, em vez de se aprofundar em diferentes fontes ou até mesmo perceber que o ChatGPT poderia estar errado.
É definitivamente um dos medos. E, aliás, houve medos semelhantes com o Google e a pesquisa e a Wikipedia, não é um novo diálogo. E assim como qualquer um deles, a questão é: você tem que aprender onde pode confiar nisso, onde deve checar novamente, qual é o nível de importância da verificação, e todas essas são boas habilidades a serem adquiridas. Sabemos onde as pessoas apenas citaram a Wikipedia, ou citaram outras coisas que encontraram na internet, certo? E essas são imprecisas, e é bom aprender isso.
Agora, aliás, à medida que treinamos esses agentes para serem mais e mais úteis e terem um grau mais alto de precisão, você pode ter um agente que está checando e diz: “Ei, há uma série de fontes que desafiam esse conteúdo. Você está curioso sobre isso?” Essa apresentação das informações aumenta sua agência, porque está lhe dando um conjunto de informações para decidir o quão profundo você vai, quanta pesquisa vai fazer, qual nível de certeza você [tem]. Todas essas são partes do que obtemos quando fazemos uma implantação iterativa.
No livro, você fala sobre como as pessoas frequentemente perguntam: “O que pode dar errado?” E você diz: “Bem, o que pode dar certo? Esta é a pergunta que precisamos fazer mais frequentemente.” E me parece que ambas são perguntas valiosas. Você não quer impedir os bons resultados, mas quer proteger-se contra os resultados negativos.
Sim, essa é parte do que é um bloomer. Você está muito otimista sobre o que pode dar certo, mas não é que você não esteja dialogando sobre o que pode dar errado. O problema é que, em geral, as pessoas se concentram demais no que pode dar errado e de menos no que pode dar certo.
Outra questão que você mencionou em outras entrevistas é o clima, e eu acho que você disse que os impactos climáticos da IA são mal compreendidos ou exagerados. Mas você acha que a adoção generalizada da IA representa um risco para o clima?
Bem, fundamentalmente, não, ou de forma mínima, por algumas razões. Primeiro, os centros de dados de IA que estão sendo construídos são todos intensamente movidos por energia verde, e um dos efeitos colaterais positivos é … que empresas como Microsoft e Google e Amazon estão investindo massivamente no setor de energia verde para fazer isso.
Depois há a questão de quando a IA é aplicada a esses problemas. Por exemplo, a DeepMind descobriu que poderiam economizar, eu acho que foi um mínimo de 15% da eletricidade nos centros de dados do Google, o que os engenheiros não achavam que era possível.
E então a última coisa é que as pessoas tendem a descrever exageradamente, porque é a moda do momento. Mas se você olhar para nosso uso de energia e crescimento nos últimos anos, apenas uma porcentagem muito pequena é proveniente dos centros de dados, e uma porcentagem ainda menor disso é a IA.
Mas a preocupação é em parte que o crescimento do lado dos centros de dados e da IA pode ser bastante significativo nos próximos anos.
Isso pode crescer a um nível significativo. Mas essa é parte da razão pela qual comecei com o ponto sobre energia verde.
Um dos casos mais persuasivos para a mentalidade gloomer, e um que você cita no livro, é um ensaio de Ted Chiang que examina como muitas empresas, quando falam sobre implantar a IA, parece ser essa mentalidade McKinsey que não é sobre desbloquear novo potencial, mas sobre como podemos reduzir custos e eliminar empregos. Isso é algo que lhe preocupa?
Bem, estou — mais em transição do que em um estado final. Eu realmente acho que, como descrevo no livro, historicamente, nós navegamos essas transições com muita dor e dificuldade, e eu suspeito que essa também será com dor e dificuldade. Parte do motivo pelo qual estou escrevendo Superagency é tentar aprender tanto com as lições do passado quanto com as ferramentas que temos para tentar navegar a transição melhor, mas é sempre desafiador.
Eu realmente acho que teremos dificuldades reais com várias transições de emprego. Você sabe, provavelmente a primeira será empregos de atendimento ao cliente. As empresas tendem a — parte do que as torna bons alocadores de capital é que elas tendem a dizer: “Como podemos reduzir custos em uma variedade de âmbitos?”
Mas, por outro lado, quando você pensa nisso, diz: “Bem, essas tecnologias de IA estão tornando as pessoas cinco vezes mais eficazes, tornando os vendedores cinco vezes mais eficazes. Vou acabar contratando menos vendedores? Não, provavelmente irei contratar mais.” E se você for aos profissionais de marketing, o marketing é competitivo com outras empresas, e assim por diante. E quanto às operações de negócios ou ao setor jurídico ou financeiro? Bem, todas essas coisas tendem a ser [onde] pagamos pelo maior gerenciamento e mitigação de risco possível.
Agora, eu realmente acho que coisas como o atendimento ao cliente reduzirão o número de funcionários, mas essa é a razão pela qual eu acho que é uma transformação de emprego. Uma boa notícia sobre a IA é que ela pode ajudá-los a aprender as novas habilidades, pode ajudá-los a fazer as novas habilidades, pode ajudar a encontrar trabalhos que se encaixem mais naturalmente em seu conjunto de habilidades. Parte dessa agência humana é garantir que estamos construindo essas ferramentas na transição também.
E isso não quer dizer que não será doloroso e difícil. Apenas significa: “Podemos fazer isso com mais graça?”
Conteúdo relacionado
Pocket Worlds adquire equipe de UGC baseada em IA, Infinite Canvas
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba mais…
Haptikos revela um exoesqueleto de mão para pegar objetos digitais em XR
[the_ad id="145565"] Junte-se às nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saiba mais…
A história de origem da Mistral tem um fundador de insurtech no seu coração.
[the_ad id="145565"] Se você tem acompanhado a indústria de IA, Mistral deve ser um nome familiar. A startup francesa de IA, avaliada em $6 bilhões, é indiscutivelmente a maior…