A OpenAI acabou de levantar impressionantes $40 bilhões para construir AGI—e pode não estar tão distante quanto você pensa. Neste episódio, Paul e Mike analisam as novas previsões sobre AGI, por que o Google está se preparando para o impacto da AGI e como a Amazon está discretamente entrando na corrida dos agentes de IA. Além disso: a OpenAI está se tornando “aberta”, a Claude lança uma iniciativa de educação em IA, há um debate sobre se a IA pode passar no Teste de Turing e a Runway levanta $300 milhões para reescrever as normas de Hollywood.
Ouça Agora
Assista ao Vídeo
Marcos de Tempo
00:04:22 — Aumento da Receita do ChatGPT e Arrecadação de Fundos da OpenAI
00:13:11 — Cronograma e Preparações para AGI
00:27:10 — Ato Nova da Amazon
00:34:24 — Planos da OpenAI para Lançar Modelo Aberto
00:37:48 — Grandes Modelos de Linguagem Aprovam o Teste de Turing
00:43:47 — Anthropic Introduz Claude para Educação
00:47:59 — Relatório Controverso sobre Direitos Autorais de IA do Instituto Tony Blair
00:52:36 — IA Domina Minecraft
00:58:41 — Protocolo de Contexto de Modelo (MCP)
01:03:30 — Atualizações de Produto e Financiamento de IA
01:08:07 — Perguntas dos Ouvintes
- Como se preparar para AGI? A parte de ter discussões sérias sobre uma UBI (renda básica universal) ou um novo sistema econômico, como você realmente se prepara?
Resumo:
Aumento da Receita do ChatGPT e os Últimos Esforços de Arrecadação da OpenAI
A OpenAI acaba de realizar o maior negócio privado de tecnologia da história, arrecadando $40 bilhões com uma avaliação de $300 bilhões. Isso a coloca na mesma liga que a SpaceX e a ByteDance—e bem à frente de qualquer competidor de IA.
O dinheiro vem em grande parte da SoftBank, e a OpenAI planeja gastar muito: escalando computação, avançando com pesquisas em IA e financiando seu projeto Stargate com a Oracle. Mas há um porém. A SoftBank pode cortar seu investimento pela metade se a OpenAI não converter totalmente para uma estrutura com fins lucrativos até o final do ano, um movimento que já está imerso em batalhas legais e escrutínio regulatório.
Enquanto isso, o ChatGPT alcançou 20 milhões de usuários pagantes e 500 milhões de usuários ativos semanais. Isso representa um aumento de 43% desde dezembro e está se traduzindo em receitas sérias—pelo menos $415 milhões ao mês, um aumento de 30% em apenas três meses. Com planos empresariais e níveis Pro de $200 por mês nesse mix, a OpenAI está agora em ritmo de alcançar $12,7 bilhões de receita este ano.
Isso significa que pode triplicar os números do ano passado, mesmo com seu consumo de caixa disparando.
Cronograma e Preparações para AGI
Um novo relatório ousado chamado “IA 2027” está fazendo manchetes com a afirmação de que a inteligência artificial superará os humanos em tudo—desde codificação até descobertas científicas—até o final de 2027.
Escrito pelo ex-pesquisador da OpenAI Daniel Kokotajlo e pelo futurista Eli Lifland, o relatório delineia uma linha do tempo no estilo ficção científica, fundamentada em tendências do mundo real. Ele imagina a ascensão do Agent-1, um modelo de IA que evolui rapidamente para o Agent-4, capaz de quebra de paradigmas semanais que rivalizam com anos de progresso humano. Até o final de 2026, a IA está remodelando o mercado de trabalho e, até 2027, está à beira de ficar fora de controle em um mundo onde os EUA e a China competem pela dominância.
A previsão gerou debates: críticos a chamam de alarmista, enquanto os autores dizem que é uma tentativa realista de se preparar para o progresso acelerado da IA. Ela também coincide com outras grandes especulações de AGI.
A ex-membro do conselho da OpenAI Helen Toner argumenta que linhas do tempo curtas de AGI agora são a visão mainstream, não a marginal.
Enquanto isso, o Google DeepMind publicou um roteiro detalhado para a segurança da AGI, esboçando como planeja lidar com riscos como uso indevido, desalinhamento e danos estruturais. A mensagem deles é clara: a AGI pode estar perto, e é melhor estarmos preparados.
Ato Nova da Amazon
A Amazon entrou na corrida de agentes de IA com um novo sistema chamado Nova Act—uma IA de propósito geral que pode assumir o controle de um navegador da web e executar tarefas por conta própria.
Em sua forma atual, o Nova Act é uma prévia de pesquisa voltada para desenvolvedores, acompanhada de um SDK que permite construir agentes de IA que podem, por exemplo, fazer reservas de jantar, pedir saladas ou preencher formulários da web. É a resposta da Amazon a ferramentas de agentes como o Operator da OpenAI e o Computer Use da Anthropic—mas com uma vantagem fundamental: está sendo integrado na próxima atualização do Alexa+, potencialmente dando-lhe amplo alcance.
O Nova Act vem do novo laboratório de AGI da Amazon em San Francisco, liderado pelos ex-executivos da OpenAI e Adept, David Luan e Pieter Abbeel.
A Amazon afirma que já supera concorrentes em testes internos como o ScreenSpot, mas ainda não foi avaliada em benchmarks públicos mais rigorosos. Mesmo assim, o lançamento sinaliza a crença da Amazon de que agentes conectados à web—não apenas chatbots—são o futuro da IA. E o Alexa+ pode ser o maior teste da empresa até agora.
Este episódio é patrocinado pela MAICON, nossa 6ª Conferência Anual de Marketing de IA, que acontecerá em Cleveland, de 14 a 16 de outubro. O código POD100 garante $100 de desconto em todos os tipos de passe.
Para mais informações sobre a MAICON e para se registrar para a conferência deste ano, visite www.MAICON.ai.
Leia a Transcrição
Aviso: Esta transcrição foi redigida por IA, graças ao Descript, e não foi editada quanto ao conteúdo.
Paul Roetzer: [00:00:00] Eles pensam que seu sistema irá basicamente realizar o trabalho de uma organização inteira com algumas pessoas orquestrando, talvez, milhões de agentes. Isso pode parecer ficção científica, mas é absolutamente o que estão pensando que vai acontecer. Bem-vindo ao Show de Inteligência Artificial, o podcast que ajuda seu negócio a crescer de forma mais inteligente, tornando a IA acessível e acionável.
Meu nome é Paul Roetzer. Sou o fundador e CEO do Marketing AI Institute e sou seu anfitrião. A cada semana, sou acompanhado pelo meu co-apresentador e diretor de conteúdo do Marketing AI Institute, Mike Kaput, enquanto analisamos todas as notícias de IA que importam e fornecemos insights e perspectivas que você pode usar para avançar sua empresa e sua carreira.
Junte-se a nós enquanto aceleramos a alfabetização em IA para todos.
Bem-vindo ao episódio 143 do Show de Inteligência Artificial. Sou seu anfitrião, Paul Reer, junto com meu co-apresentador, Mike put. Estamos gravando na sexta-feira, 4 de abril. [00:01:00] Estou esperando que a Microsoft faça anúncios sobre o copiloto hoje. Então, os tempos são relevantes hoje. Não teremos as últimas novidades, exceto que sabemos que a Microsoft está anunciando algo.
O Google Next, evento do Google Cloud, acontecerá na próxima semana em Las Vegas. Estamos esperando muitas notícias do Google muito em breve. Na verdade, estarei lá a semana toda, então, se alguém estiver na conferência Google Cloud Next, me envie uma mensagem. Talvez possamos nos encontrar pessoalmente. Por isso estamos fazendo isso numa sexta-feira.
Eu não estarei aqui na segunda-feira para fazer isso. Portanto, ainda temos muito a cobrir, mesmo que seja uma semana curta. houve bastante movimento, alguns relatórios interessantes lançados relacionados à AGI, alguns pensamentos adicionais sobre AGI. O momento é ótimo, considerando que acabamos de lançar nossa série sobre a Rota para AGI. Muitas novas informações estão começando a emergir.
Este episódio é patrocinado pela Conferência de Marketing de IA ou MAICON. Este é o sexto evento anual. Acontecerá de 14 a 16 de outubro em Cleveland. Este é o evento principal da [00:02:00] Marketing AI Institute. Se você está começando agora e não está familiarizado com algumas das coisas que fazemos, a Conferência de Marketing de IA foi a primeira grande iniciativa que lançamos em 2019.
Comecei o Marketing Institute em 2016 mais como uma entidade de pesquisa e, você sabe, compartilhando a história da IA. E então, em 2019 foi quando lançamos a Conferência de Marketing de IA. Portanto, no ano passado, tivemos cerca de 1.100 pessoas de, não sei, acho que cerca de 20 países, que vieram a Cleveland. Portanto, estamos esperando pelo menos esse número.
A equipe sempre me provoca quando jogo números, mas sou otimista; acho que teremos 1.500. Portanto, lá está, eu já disse. 1.500 em Cleveland neste outono. Estou empolgado, pois é a primeira vez que estamos realmente fazendo isso. Cleveland é nossa cidade natal. Então, estou empolgado para as pessoas virem e experienciar Cleveland de qualquer forma.
O outono em Cleveland é como meu paraíso. Eu amo o outono em Cleveland. As folhas estão mudando. O ar está fresco. É simplesmente a minha época favorita do ano em Cleveland. Espero que as pessoas possam vir e se juntar a nós. [00:03:00] Acabamos de anunciar os primeiros 19 palestrantes, então você pode ir a macon.AI, que é M-A-I-C-O n.ai e conferir a lista de palestrantes.
A agenda ainda apresenta a agenda de 2024. Ela dará uma boa noção do tipo de programação que fazemos e atualizaremos a agenda de 2025 em breve. Você pode ver os quatro workshops que temos planejados. Portanto, há quatro workshops pré-evento em 14 de outubro que são opcionais. Mike lidera um workshop de produtividade em IA.
Isso vai ser sobre casos de uso e ações tangíveis. Estou liderando um workshop de inovação em IA. Este é um workshop que venho pensando e trabalhando há alguns anos. Esta é a primeira vez que estou realmente rodando este. Temos um workshop sobre IA para conteúdo B2B e geração de leads com Andy Cina, que é incrível.
E então temos do Fato à Ação, como a IA transforma a medição de marketing em resultados com Christopher Penn e Katie, Robert. Portanto, esses serão ótimos. Novamente, são opcionais, mas você pode ler sobre todos esses workshops [00:04:00] e conferir. E temos um preço. O preço sobe em 26 de abril, então você tem algumas semanas aqui para entrar na atual tarifa de antecipação.
Novamente, vá para MAICON.AI, que é MAICON.AI. Adoraríamos vê-los em Cleveland, de 14 a 16 de outubro. Tudo bem, Mike. O ChatGPT da OpenAI continua crescendo, não é? É uma loucura
Aumento da Receita do ChatGPT e Arrecadação de Fundos da OpenAI
[00:04:22] Mike Kaput: Sim. Nosso primeiro tópico principal de hoje diz respeito aos números de crescimento impressionantes da OpenAI. Então, primeiro, eles conseguiram realizar o maior financiamento privado de tecnologia da história, arrecadando $40 bilhões com uma avaliação de $300 bilhões.
Isso coloca sua avaliação, seu tamanho na mesma liga que SpaceX e ByteDance em termos de empresas privadas, e, claro, bem à frente de qualquer concorrente privado em IA. Agora, esse dinheiro vem em grande parte da SoftBank, e eles aparentemente planejam gastar muito. A OpenAI quer escalar dramaticamente [00:05:00] a computação, avançar com pesquisas em IA e financiar seu projeto Stargate com a Oracle, que falamos antes.
Agora, há um porém. A SoftBank pode cortar seu investimento pela metade se a OpenAI não se converter completamente para uma estrutura com fins lucrativos até o final do ano, que também é uma luta que já documentamos no passado. Enquanto isso, o ChatGPT conta com 20 milhões de usuários pagantes e 500 milhões de usuários ativos semanais.
Essa é uma alta de 43% desde dezembro e se traduz em uma receita séria. Pelo menos $415 milhões por mês, um aumento impressionante de 30% em apenas três meses. Agora, com planos empresariais e cobranças API de $200 por mês. Níveis Pro estão na mistura, a OpenAI agora está se preparando para atingir um impressionante $12,7 [00:06:00] bilhões em receita este ano, o que significa que poderia triplicar os números do ano passado.
Mesmo assim, seu consumo de caixa está disparando. No entanto, os investidores claramente acreditam que eles têm uma pista bastante longa e, cada vez mais, que o destino de todo esse dinheiro é a AGI ou inteligência geral artificial. Então, em primeiro lugar, Paul, talvez você poderia me falar sobre os usos desse financiamento.
Por um lado, a OpenAI é uma empresa de tecnologia de consumo que está em um mercado implacavelmente competitivo. Está tentando ganhar e reter usuários como qualquer outra empresa. Portanto, ter um grande tesouro de guerra faz sentido. Por outro lado, os outros, esse tipo de regal, disseram que realmente precisam do dinheiro para construir a AGI.
Então, qual é a verdade?
Paul Roetzer: Sim, eu acho que é um pouco dos dois. o crescimento é insano. Eu, eu, o Sam Altman tuitou em 31 de março. Não me lembro se eu disse isso no episódio da semana passada ou não. Eu não lembro quando esse tweet saiu, mas ele disse que o lançamento do ChatGPT há 26 meses foi um dos momentos virais mais insanos que já vi.
E nós adicionamos 1 milhão de usuários em cinco dias. Nós adicionamos 1 milhão de usuários na última hora. Portanto, quando ele estava tentando dar contexto ao quão dramático foi o crescimento do lançamento do gerador de imagens, foi maciço. Assim, você destacou esses 500 milhões de usuários ativos por semana.
Nós acabamos de relatar sobre 300 milhões, acho que em fevereiro. É grande. Então, isso é algo realmente louco. Em termos de como eles vão usar o dinheiro, voltei a um artigo da informação de fevereiro, a informação, que é uma ótima fonte, que nós sempre referenciamos no podcast. Eles meio que quebraram alguns detalhes.
Aparentemente estavam bem informados em sua reportagem, pois tudo que disseram até agora se confirmou. Então, eles relataram que a OpenAI disse aos investidores que a SoftBank fornecerá pelo menos $30 [00:08:00] bilhões do total de $40 bilhões, o que é o que é, rumores ou relatórios de que forneceu quase metade desse capital, que avaliará a IA em $260 bilhões.
Isso é antes do dinheiro. Então, os $300 bilhões vêm após o dinheiro que será direcionado para o Stargate. Portanto, eles dizem que dos $30 bilhões, bem, suponho que de $40 bilhões no total, metade disso está sendo alocada para a construção dos centros de dados com a SoftBank e a Oracle. Esse dinheiro será usado nos próximos três anos para desenvolver centros de dados em IA nos EUA.
A OpenAI planeja arrecadar cerca de $10 bilhões do total de fundos até o final de março. Parece que eles conseguiram as compromissos até o final de março para tudo isso. aquele artigo, novamente de fevereiro, que vamos colocar nas notas do programa, disse que as divulgações financeiras também mostram como a SoftBank e a OpenAI já se entrelaçaram. A empresa prevê que um terço do crescimento de receita da OpenAI este ano virá de gastos da SoftBank para usar produtos da OpenAI em várias empresas, um acordo que a empresa anunciou no início deste mês. Além disso, eles agora estão a caminho de atingir [00:09:00] $12,7 bilhões este ano. Ao que tudo indica, a OpenAI espera uma receita de $28 bilhões no próximo ano.
As previsões para 2026 indicam um crescimento para $28 bilhões, a maior parte disso proveniente do ChatGPT e o restante através de ferramentas de desenvolvedor de software e agentes de IA. Mas, como você mencionou, o consumo de caixa é massivo. Portanto, disse que a OpenAI antecipa que a quantidade de caixa que está queimando crescerá a uma taxa igualmente insana. Espera-se que o consumo de caixa passe de cerca de $2 bilhões no ano passado para quase $7 bilhões este ano. A empresa previu que seu consumo de caixa aumentará a cada um dos próximos três anos, atingindo um pico de cerca de $20 bilhões em 2027 antes que a OpenAI se torne lucrativa até o final da década, após a construção do Stargate. Portanto, sim, eles estão queimando dinheiro de uma maneira que quase ninguém já fez.
E eles precisam resolver isso rápido. E eles certamente estão apostando que, ao construir todos esses centros de dados, estarão seguindo essas leis de escalonamento e terão uma ferramenta incrivelmente valiosa. Discutimos em um episódio recente sobre uma licença de $20 mil por mês para, basicamente, um agente substituto humano.
Algumas das coisas que discutaremos no próximo tópico sobre AGI começam a se mover mais nessa direção e, honestamente, não tenho certeza qual é o limite do que você poderia cobrar por uma IA poderosa, AGI ou qualquer que seja o termo que quisermos usar. Se você está, se você está construindo um sistema A que basicamente funciona como uma empresa inteira, que é seu nível 5 da IA, esse é o nível 5 no estágio interno da IA de organização, certo?
Portanto, eles planejam construir sistemas que funcionem como empresas. $20 mil por mês pode parecer barato em dois anos. Eles podem estar cobrando um milhão por mês, quem sabe? Porque eles acreditam que seu sistema está [00:11:00] basicamente irá fazer o trabalho de uma organização inteira com algumas pessoas orquestrando, talvez milhões de agentes como, ou uma IA que orquestra todas as outras IAs e o humano supervisiona a IA mestre.
Como isso pode parecer ficção científica, mas é absolutamente o que estão pensando que vai acontecer.
Mike Kaput: Isso se relaciona a alguns dos principais tópicos que já discutimos no passado, em relação a serviços como software, pois não é como se eles estivessem apenas buscando as taxas de licenciamento de outras ferramentas, embora estejam um pouco, o foco está mais no mercado total endereçado representado pelos custos de mão de obra real dos trabalhadores do conhecimento.
Estamos falando de gastar trilhões de dólares por ano contratando pessoas para fazer muitos dos trabalhos que parece que eles esperam que suas IAs serão algo que as pessoas pagariam para fazer o trabalho em vez de um humano.
Paul Roetzer: Sim, e essa é a parte estranha, como se não pudéssemos realmente projetar como isso parece, mas sabemos que é [00:12:00] significativo.
Michael Dell, em 1º de abril, o fundador da Dell Computer, tuitou, “O trabalho do conhecimento impulsiona uma economia global de $20 a $30 trilhões. Com a IA, podemos aumentar a produtividade em 10 a 20% ou mais, desbloqueando de $2 a $6 trilhões em valor a cada ano. Chegar lá pode levar de $400 bilhões a $1 trilhão em investimento.”
O retorno disso ao longo do tempo será massivo. Portanto, sim, as pessoas que estão mais próximas disso, seja Jensen Huang e a Nvidia, ou Zuckerberg ou Altman ou Michael Dell ou quem quer que seja, estão falando sobre números que parecem bastante loucos, mas para eles, isso parece inevitável.
E acho que isso vai se manifestar como um tema do próximo tópico aqui hoje: há muitas pessoas que ainda estão tentando processar o que o ChatGPT pode fazer hoje, mas as pessoas que estão na fronteira estão tão além disso e estão vendo um caminho claro para um mundo muito [00:13:00] diferente, como daqui a dois ou três anos.
Para eles, isso simplesmente parece inevitável. E pode ser em cinco anos, pode ser em sete, mas isso está chegando, de uma forma ou de outra.
Cronograma e Preparações para AGI
[00:13:11] Mike Kaput: Portanto, vamos falar sobre isso. nosso segundo grande tópico hoje é sobre uma nova previsão de AGI que está causando algum alvoroço. Esse é um novo relatório chamado AI 2027, e ele traça uma das linhas do tempo mais dramáticas que vimos para a IA.
Portanto, isso é principalmente na forma de um site que você pode visitar. Vamos colocar o link nas notas do programa. É um pouco interativo, na medida em que você rola por ele e percorre a linha do tempo deles. Você verá pequenos widgets e visuais se atualizando à medida que avança. É realmente legal. Vale a pena visitar. Mas nele, os autores preveem que até o final de 2027, a IA será melhor que os humanos em basicamente tudo, desde codificação até pesquisa, até a invenção de versões ainda mais inteligentes de [00:14:00] si mesma.
E todo esse site, toda essa experiência narrativa que eles passam mostra qual é a pista para essa decolagem de inteligência. Agora, todo esse projeto vem de algo chamado AI Futures Project, que é liderado por um ex-pesquisador da OpenAI chamado Daniel Kokotajlo. Ele, na verdade, deixou a empresa devido a preocupações com segurança.
Ele então se uniu ao pesquisador de IA Eli Lifland, que também é conhecido como um altamente preciso preditor de eventos atuais. E juntos, com a equipe deles, transformaram centenas de previsões do mundo real sobre o progresso da IA em uma narrativa ao estilo ficção científica no site. Tudo isso está fundamentado no que eles acreditam que realmente acontecerá.
O veículo pelo qual eles descrevem isso é este cenário fictício que envolve uma empresa de IA fictícia construindo algo chamado Agent-1, que é um modelo que rapidamente evolui para o Agent-4, um sistema autônomo que faz avanços que equivalem a anos de progresso em semanas. Ao longo do tempo, eles mostram como os agentes de IA começarão a agir como funcionários juniores até meados de 2025. Até o final de 2026, a IA está substituindo codificadores de nível de entrada e remodelando o mercado de trabalho, e em suas previsões, em 2027, teremos pesquisadores de IA auto-melhorantes fazendo semanas de progresso em dias, e os EUA e a China estão completamente trancados em uma corrida armamentista de IA.
Agora, há muitas críticas sobre esse projeto de alto perfil. Alguns críticos dizem que isso é mais uma forma de amedrontar e quase fantasia do que previsão. Mas os autores argumentam que é uma tentativa séria de se preparar para o que pode acontecer se tivermos esse tipo de lançamento rápido de IA superinteligente. Portanto, em uma entrevista, Kokotajlo disse, “nós prevemos que a IA continuará.
[00:16:00] a melhorar ao ponto de se tornar agentes totalmente autônomos que serão melhores que os humanos em tudo até o final de 2027 ou mais. Agora, isso também acontece ao mesmo tempo em que vimos esta semana alguns outros acontecimentos significativos sobre AGI. Um deles é que a membro do conselho da Xop AI, Helen Toner, publicou um artigo em sua Substack apontando que todas essas previsões sobre as linhas do tempo para a AGI estão encolhendo cada vez mais.
E ela ainda escreve, “se você quiser argumentar que a IA em nível humano é extremamente improvável nos próximos 20 anos, você certamente pode, mas deve tratar isso como uma posição minoritária, onde o ônus da prova está sobre você.” E, por último, mas não menos importante, o Google DeepMind, na verdade, lançou uma visão para a construção segura da AGI em um novo artigo técnico.
A empresa literalmente afirma que a AGI pode chegar dentro de anos e que está tomando medidas para se preparar. Portanto, eles têm todo esse roteiro de segurança em dezenas e dezenas de páginas. [00:17:00] O foco são os quatro grandes riscos da AGI. Primeiro, o uso indevido, que significa alguém instruindo o sistema a causar dano.
O segundo é cometendo erros, ou seja, uma IA causa dano sem perceber. O terceiro são riscos estruturais, que implicam em danos que surgem do consumo de um monte de agentes, onde nenhum agente individual está em falta. E o quarto é o desalinhamento quando um sistema de IA persegue um objetivo diferente do que os humanos pretendiam. Portanto, o Google diz sobre esse plano, esse roteiro, essas medidas de segurança que “estamos otimistas quanto ao potencial da AGI.
Ela tem o poder de transformar nosso mundo, atuando como um catalisador para o progresso em muitas áreas da vida. Mas é essencial que, com qualquer tecnologia tão poderosa, até mesmo uma pequena possibilidade de dano deve ser levada a sério e prevenida.” Paul, há muito a se discutir aqui, mas primeiro, o que você achou do AI 2027?
As pessoas por trás dele parecem ter alguns antecedentes interessantes em IA. Você achou suas previsões credíveis? O formato dessa história ficcional é útil ou prejudicial para fazer a pessoa média realmente se importar com isso?
Paul Roetzer: Sim, então meu, meu primeiro ponto é como um alerta ao leitor.
Eu, eu, honestamente, não recomendaria a leitura disso para todos. Como eu acho que isso poderia ser muito chocante e avassalador e pode definitivamente alimentar os medos das pessoas não técnicas em relação à IA. E talvez acelerar esses medos. Acho que quando você lê coisas como essa, seja como consciência situacional, você sabe, a série de documentos de Li Po Ash e Brenner que cobrimos no ano passado.
Máquinas de…
Mike Kaput: Máquinas de Amorosas Graças.
Paul Roetzer: Sim, isso. O Manifesto Aceleracionista de Andres, você, [00:19:00] você tem que ter muito contexto ao ler essas coisas, e você precisa ter uma compreensão muito forte de quem as escreveu e sua perspectiva sobre o mundo.
E você tem que apreciar que é apenas uma perspectiva. Agora, eles são certamente credenciados; eles têm tudo em seus currículos que justificaria esse esforço e a redação desse. E eu acho que precisa ser levado a sério. E acho que, bem, consegui passar pelas primeiras 15 ou 20 páginas e depois comecei a escanear o restante à medida que começava a passar por esses outros cenários diferentes, mas com certeza o suficiente para entender o que eles estavam falando e suas perspectivas.
Eu vi Daniel, um dos, você sabe, os líderes disso, twittou como, “desafie-nos. Nós estamos… na verdade, colocaram recompensas para refutá-los. Eles estão dizendo que se você puder vir até nós com um fato que contradiga o que apresentamos, nós pagaremos você. [00:20:00] Portanto, eu não sei, honestamente, que nada do que eles colocaram lá é realmente tão louco.
E é por isso que estou dizendo, como eu, eu só não recomendaria isso porque é, é só muito para lidar. Portanto, se você está em um ponto onde realmente quer saber, porque, como eu disse, uma coisa-chave, a coisa que eu recomendaria é, na verdade, o artigo de Kevin Rus no New York Times.
Na verdade, é onde eu começaria. Antes de você ler o site AI 2027, eu realmente leria o artigo do Kevin Rus. Vamos colocar nas notas do programa. Kevin oferece uma perspectiva muito equilibrada sobre isso. E eu pensei que uma das coisas realmente chave foi que, em um ponto, Kevin disse, “portanto, vou pular para o artigo do Kevin por um segundo.”
Portanto, ele começa dizendo: “O ano é 2027. Sistemas de inteligência artificial poderosos estão se tornando mais inteligentes que os humanos e causando caos na ordem global. Espiões chineses roubaram os segredos de IA da América e a Casa Branca está correndo para retaliar. Dentro de um laboratório de IA líder, engenheiros estão assustados ao descobrir que seus modelos estão começando a enganar a eles mesmos, levantando a possibilidade de que eles fiquem fora de controle.”
Esse é basicamente um resumo do projeto AI 2027. Não existe uma única coisa nesse conceito que não possa acontecer até 2027. Portanto, é isso que estou dizendo, como, eu não estou contestando o que eles estão dizendo. Estou apenas dizendo que eles estão assumindo uma posição extrema.
Mas a chave aqui é entender quem está escrevendo isso. Portanto, mais adiante no artigo, Kevin diz que não há dúvida de que algumas das opiniões do grupo são extremas. O Sr. Cota, como você disse? COTA, tá? Tudo bem. [00:22:00] Sim, você pode dizer.
Por exemplo, me disse no ano passado que acreditava haver 70% de chance de que a IA destruiria ou prejudicaria catastróficamente a humanidade.
Portanto, existe algo chamado P Doom [00:23:00] no mundo da IA, a probabilidade de que a IA aniquile a humanidade. e esta é uma pergunta comum feita a pesquisadores de IA líderes: qual é a sua probabilidade de destruição? E alguns deles, que estão bem acima de 50%, estão convencidos de que a superinteligência que está sendo construída vai acabar com a humanidade.
Outros que pensaram que é absurdo, como Jan Koon, que talvez nem sequer responda à pergunta porque pensam que é tão ridículo. Portanto, você precisa entender que existem diferentes facções, e cada uma dessas facções frequentemente tem acesso às mesmas informações, trabalhou nos mesmos laboratórios juntos nos mesmos projetos. Vendo os modelos emergirem e nas capacidades, eles todos viram as mesmas coisas, mas alguns deles, então, jogam isso para frente como se isso fosse o fim. Como se tudo isso fosse péssimo.
Mas quando você realmente começa a entrar nesses fundamentos sobre a dramatização excessiva disso, [00:24:00] eles na verdade lutam para voltar à realidade e dizer, sim, mas e se isso não realmente decolar tão rápido?
O que é o que acontece se os espiões chineses não tiverem acesso ao “agente três”, como eles chamaram? O que acontece se for apenas o ChatGPT e se a sociedade continuar com suas vidas como se nada tivesse acontecido? E apenas um pequeno grupo de empresas tiver essa poderosa IA que pode fazer todas essas coisas e.
E, e, como o mundo simplesmente continua. E isso é, honestamente, algo mais difícil para eles imaginar do que esse cenário de destruição. Então, novamente, eu só sinto que é uma boa leitura. Se você está mentalmente em um lugar onde pode considerar o lado realmente dramático e sombrio de onde isso vai rapidamente, entenda que tudo isso se baseia em fatos.
Não há nada que eles estejam inventando lá, que não seja possível. Isso apenas não significa que seja provável. E eu ainda, como, acho que temos mais agência sobre como tudo isso acontece do que talvez alguns desses [00:25:00] relatórios o que fariam você pensar. Mas leva as pessoas a estarem meio que focadas nas possibilidades.
Havia um, o CEO da Allen Institute for AI, laboratório de IA em Seattle, que revisou o artigo AI 2027 e disse que não estava nada impressionado com isso. Como se não houvesse nada a ser feito ali. Portanto, novamente, leia com cuidado. Se você quiser seguir esse caminho, faça-o. Se você quiser ir para mais o lado técnico, a ESH, na verdade, tem um podcast através de nosso podcast com os autores.
Sim. E ESH falamos antes, vamos colocar o link nas notas do programa. Ele faz entrevistas incríveis. Elas são muito técnicas. Portanto, novamente, se você se interessar pelo lado técnico, sabe, tenha um dia de folga. Se você não o faz, leia o artigo de Kevin Rus e siga em frente com sua vida, basicamente, essas são as minhas notas aqui agora sobre o Google, que está adotando um caminho responsável para a AGI também um artigo maciço como [00:26:00] sim, você quer um ótimo caso de uso de um caderno LM. Jogue isso em um LM de caderno e tenha uma conversa com isso. Transforme isso em um podcast. mas há coisas interessantes aqui dentro. Se você ler o artigo sobre isso que eles publicaram no site do DeepMind. Eles fizeram referência ao quadro de níveis de AGI que conversei na série “Rumo à AGI”.
Eles vincularam ao novo artigo, uma abordagem para segurança técnica em AGI e segurança. Mas também publicaram um novo curso sobre a segurança em AGI que eu achei interessante. Não tive a chance de passar por ele ainda, mas parece que são cerca de uma dúzia ou mais de vídeos curtos que variam entre quatro e nove minutos.
Paul Roetzer: Portanto, eles têm, nós estamos em um caminho para capacidades super-humanas, risco de planejamento deliberado e objetivos subinstrumentais. Onde podem vir desalinhamentos de objetivos? Questionário de classificação para falhas de alinhamento, algumas coisas interessantes. Interpretabilidade, como saber o que esses modelos estão fazendo.
Portanto, novamente, isso provavelmente foi feito para um público mais técnico, mas pode ser interessante para as pessoas se você quiser entender mais profundamente o que está acontecendo aqui. Portanto, em um panorama geral, estou feliz em ver esse tipo de [00:26:00] coisa acontecer. Sim mm-hmm. Essa foi toda a minha convocação à ação com a série AGI: precisamos falar mais sobre isso.
Precisamos de mais pesquisa, precisamos de mais trabalho. Tentar projetar o que acontece. Eu estou apenas mais interessado em, tipo, tudo bem, vamos entrar de serviço jurídico ou no mundo da saúde ou no mundo da manufatura e vamos seguir mais como resultados práticos e então o que isso significa? Como é que se dá com essas questões fundamentais que todos nós conhecemos?
Porque se você levar essa coisa a um CEO, sim. A maioria dos CEOs ainda está tentando entender como usar o ChatGPT pessoalmente e como capacitar suas equipes a resolver isso. Você começar a lançar essas coisas na frente deles e você está apenas fazendo com que as pessoas recuem novamente. Portanto, eu para, sim.
Importante falar sobre isso, mas eu só não deixaria as pessoas ficarem muito consumidas por essas coisas.
Mike Kaput: Sim. Por exemplo, se você for um líder de marketing em uma organização de saúde que está lutando para conseguir aprovação para o ChatGPT e fazer sua equipe construir GPTs, essa [00:27:00] pode te levar a uma existência.
Sim, você não quer incluir o relatório AI 2027 na sua apresentação sobre isso.
Ato Nova da Amazon
[00:27:10] Mike Kaput: Tudo bem. Portanto, nosso terceiro grande tópico desta semana é que a Amazon entrou na corrida de agentes de IA com um novo sistema chamado Nova Act. E esta é uma IA de propósito geral que pode assumir o controle de um navegador web e executar tarefas por conta própria. Portanto, em sua forma atual, isso é totalmente uma prévia de pesquisa. É voltado para desenvolvedores, é agrupado com um kit de desenvolvimento de software que permite que construam agentes de IA que podem, por exemplo, fazer reservas de jantar, pedir saladas ou preencher formulários da web.
Portanto, é basicamente a resposta da Amazon às ferramentas de agentes como o operator da OpenAI e o uso do computador da Anthropic. Mas há uma vantagem fundamental aqui que vale a pena discutir. Está sendo integrado na próxima atualização do Alexa Plus, o que pode potencialmente lhe dar um grande alcance. Agora, o Nova Act vem do novo laboratório de AGI da Amazon em San Francisco, que cobrimos em um episódio passado, liderado por ex-executivos da OpenAI e Adept, David Lewan e Peter Abiel.
E a missão do laboratório é construir sistemas de IA que possam executar qualquer tarefa que um humano possa fazer em um computador. O Nova Act é o primeiro passo público nessa direção. A Amazon afirma que já supera concorrentes em certos testes internos, mas ainda não foi avaliado em avaliações públicas mais rigorosas.
Portanto, Paul, isso é admitidamente muito cedo. É uma prévia de pesquisa. É um agente, o que sempre discutimos, ainda é uma tecnologia que é realmente, realmente, realmente nova. Portanto, não é como se amanhã você subitamente tivesse o agente da Amazon fazendo tudo por você. Mas parece um pouco diferente e vale a pena falar do que os outros [00:29:00] anúncios de agentes, por causa do alcance da Amazon e como isso se conecta a tantas partes da vida do consumidor.
Você acha que isso pode ser o começo de ver agentes realmente aparecendo para a pessoa média?
Paul Roetzer: Sim, em geral, tentamos não cobrir prévias de pesquisa demais. Muitas vezes, damos uma visão geral de: aqui está o que está acontecendo. Mas tantas vezes vimos que essas coisas simplesmente não levam a muito.
Mas eu, eu acho que a chave aqui é que está começando a mudar a conversa em torno da Amazon e suas ambições de IA. Portanto, se você passar pelos primeiros 130 episódios deste podcast, meu palpite é que falamos sobre a Amazon talvez três ou quatro vezes. Sim. Como, e geralmente está relacionado ao investimento deles na Anthropic.
Sim. Nós falamos sobre o Rufuss no ano passado, que é o assistente de compras deles. Portanto, dentro do aplicativo ou website, você pode apenas falar com o Rufuss. Estou indo para uma viagem, o que devo buscar? E ajuda você a comprar [00:30:00] coisas. E eles estão usando um modelo de linguagem por trás para fazer isso. Eu acho que é alimentado pela Anthropic.
Então, falamos sobre o Alexa+ algumas semanas atrás. E agora estamos falando sobre não apenas Nova, mas também na última quinta-feira anunciaram esse recurso “compre para mim”. E eu não sei, Mike, você se lembrou quando isso irá sair? Você se lembra de ver isso no anúncio? Não me lembro de ter visto.
Mike Kaput: a data de lançamento exata.
Paul Roetzer: Tudo bem. Sim, vamos verificar. Eles colocaram isso em seu site e depois a TechCrunch cobriu isso. Mas a premissa básica aqui é que “compre para mim” usa criptografia para inserir com segurança suas informações de cobrança em sites de terceiros. Portanto, se você está buscando algo e eles não têm no Amazon, a IA de seus agentes, que é alimentada por esse conceito Nova, vai realmente encontrar o que você precisa em outro lugar na web.
Isso será diferente do que os agentes da OpenAI e do Google, que exigem que o humano insira as informações do cartão de crédito antes que a compra aconteça. Portanto, se você diz, hey, encontre-me uma nova mochila para uma viagem à [00:31:00] Europa. E os agentes da OpenAI e do Google fazem isso. Quando eles chegam ao site, o humano precisa fazer a coisa. Neste caso, a Amazon está basicamente pedindo aos usuários que confiem neles e em sua capacidade de proteger suas informações com segurança e privacidade para seguirem em frente com a compra. Portanto, estão acreditando que você não está, que seus agentes não vão acidentalmente comprar mil pares de algo em vez de um par de algo.
Direto. Portanto, acho que o que estamos vendo é como a Amazon pode começar a fazer isso. E acho que discutimos em um episódio recente que eles provavelmente estão construindo seus próprios modelos também, além, você sabe, continuar a investir mais fortemente na construção de seus próprios modelos. Então, não sei. Acho que mais do que qualquer coisa provavelmente está começando a mover a Amazon na conversa para onde estou começando a ver, podemos estar falando muito mais sobre a Amazon do que costumávamos.
Sim. Porque realmente anteriormente eram os robôs, seus investimentos em IA. E então, você sabe, sempre falo sobre [00:32:00] a Amazon como um dos exemplos clássicos de IA nos negócios, foi a previsão em torno do motor de recomendação, seu carrinho de compras, onde preveria coisas para comprar. Isso era como a IA antiga.
E eles fizeram isso tão bem quanto ninguém por cerca de 15 anos. Sim. Portanto, eles não eram novos na IA, apenas foram surpreendidos pela IA generativa. Eles eram como, eles tinham nada. Eles, você sabe, eles tinham Alexa, mas não era nada perto do que precisava acontecer, e agora estamos aqui, dois anos e meio depois, qualquer que seja, e eles ainda estão tentando acompanhar uma coisa que deveriam ter liderado, mas, você sabe, todos eles perderam. A Apple perdeu, o Google perdeu, a Amazon perdeu. Então, sim, não sei, é interessante. Eu espero que ouvir mais desse laboratório, mas acho que também provavelmente veremos isso se expandindo rapidamente para seus produtos.
Mike Kaput: Apenas uma nota aqui, segundo o anúncio da Amazon, “compre para mim” está atualmente ativo no aplicativo de compras da Amazon em iOS e Android [00:33:00] para um subconjunto de clientes dos EUA.
Ok? Portanto, eles estão começando a testar com um número limitado de lojas e produtos de marcas, com planos de envolver mais clientes e incorporar mais lojas e produtos com base no feedback. Então, se você tiver acesso a isso e for corajoso o suficiente, talvez possa dar uma tentativa. Sim. Mas,
Paul Roetzer: mas não espere a mesma facilidade de devoluções do que ao comprar da Amazon, porque eles notaram que você é responsável. Como você lida com essas coisas? Você usaria “compre para mim”? Você é mais agressivo em usar agentes do que eu sou.
Mike Kaput: Eu não sei se eu tenho uma preocupação pessoal sobre algo dar errado ou sobre a privacidade que eu não conseguiria reverter ou que realmente não importaria tanto para mim.
Sim. Mas, mesmo assim, parece apenas um incômodo para mim.
Paul Roetzer: Acho que sei o quão pouco confiáveis são os agentes de IA hoje. Sim. Apesar de como estão sendo divulgados, eu acho que só estou, estou, eu estou, estou disposto a deixar todo mundo testar os erros. Como eu não considero que essa conveniência vale o suficiente para me arriscar a isso dar errado.
Exatamente. Estou meio que bem em preencher meu próprio formulário e, tipo, ir para o outro site e, você sabe, pagar por lá e saber os termos de uso e a política de devolução. Portanto, não sei. Eu sou um pouco mais conservador quando se trata de, tipo, empurrar os limites dos agentes de IA hoje.
Com certeza.
Planos da OpenAI para Lançar um Modelo Aberto
[00:34:24] Mike Kaput: Tudo bem, vamos nos aprofundar no rápido fogo desta semana. Nosso primeiro tópico de rápido fogo é que a OpenAI finalmente está lançando um novo modelo de linguagem com pesos abertos. Este é o primeiro que fizeram desde o GPT-2. Então, em um post no X, Sam Altman disse que a empresa estava sentada sobre essa ideia há muito tempo, mas “agora parece importante fazer isso.”
Esse modelo será lançado nos próximos meses com um forte foco na capacidade de raciocínio e ampla usabilidade. Portanto, é importante notar aqui que este é um modelo de peso aberto, e você vê, tipo, confusão de termos. Muitas pessoas dizem, oh, [00:35:00] tudo bem, isso é código aberto. Bem, tecnicamente não exatamente, porque peso aberto significa que os pesos do modelo, que são os parâmetros numéricos aprendidos durante o treinamento, são tornados publicamente acessíveis.
Portanto, os pesos definem como o modelo usa dados de entrada para produzir saídas. No entanto, um modelo de peso aberto não lhe dará todo o código-fonte, dados de treinamento ou detalhes de arquitetura do modelo. Como um totalmente de código aberto. Portanto, você ainda pode hospedar e rodar esse tipo de modelo na sua empresa, tentar com seus próprios dados, que é o que a OpenAI espera que as pessoas façam.
Mas não é exatamente totalmente de código aberto, o que não é incomum de se ver. Agora, antes do lançamento, diz Altman, o modelo passará por sua total avaliação de prontidão para levar em conta o fato de que modelos abertos podem ser modificados ou mal utilizados após o lançamento. E a OpenAI está realizando sessões de feedback de desenvolvedores começando em San Francisco e se expandindo para a Europa e Ásia e Pacífico para ajudar a garantir que o modelo seja útil logo de cara.[00:36:00]
Então, Paul, quão significativo você vê que a OpenAI está, pelo menos, mergulhando o pé de volta nas águas dos modelos abertos?
Paul Roetzer: Sim, eu, eu acho que talvez o maior jogo aqui é que Elon Musk não poderá mais chamá-los de IA fechada. Portanto, essa é uma das reclamações de Elon é que eles foram criados para serem abertos e então não foram.
E então, você sabe, talvez isso seja o contrapeso a esse argumento. Quer dizer, é uma estratégia que eu esperaria que todos os laboratórios fizessem. Portanto, é claro que o principal enfoque da Meta tem sido liberar modelos poderosos de código aberto ou modelos de pesos abertos. O Google DeepMind, Demi Saba, disse que essa é sua estratégia básica, que eles liberarão a geração anterior como pesos abertos.
Portanto, eles constroem, você sabe, vamos supor que, você sabe, o Gemini 2.5 é o modelo de hoje, um ano a partir de agora, vamos supor que seja o Gemini 4 ou qualquer coisa, então eles provavelmente abririam o Gemini 2.5, a geração anterior. Portanto, como eles pegam o modelo de fronteira atual que é como o modelo pago e considerado não seguro para ser lançado.
Eles constroem a próxima geração de modelos e então, uma vez que determinam que o modelo da geração anterior é seguro, mais importante, os custos de computação estão caindo cerca de 10 vezes a cada ano. Portanto, agora o custo para fornecer esse modelo de peso aberto, modelo de código aberto é drasticamente menor e agora eles podem ir e fazer isso. Portanto, apenas isso.
Eu acho que essa é uma estratégia lógica para o Google e OpenAI e alguns desses outros laboratórios, que você apenas meio que libera essas gerações anteriores de modelos e você espera que as empresas queiram continuar pagando pela coisa mais poderosa porque tem mais raciocínio, porque tem melhor geração de imagens, melhor, melhor geração de vídeo, todas essas coisas.
e o código aberto se torna mais para o mundo dos desenvolvedores construir em cima disso.
Grandes Modelos de Linguagem Aprovam o Teste de Turing
[00:37:48] Mike Kaput: Em seguida, um novo estudo reacendeu algumas discussões sobre se a IA pode passar no Teste de Turing. Portanto, o Teste de Turing é um teste famoso pensado lá em 1950 pelo [00:38:00] cientista da computação Allen Turing. Ele é projetado para avaliar a capacidade de uma máquina de exibir inteligência semelhante à humana.
Agora, ele consiste basicamente em um juiz humano comunicando-se simultaneamente com um humano e uma IA por meio de perguntas baseadas em texto e tentando adivinhar qual é qual. Se o juiz não consegue identificar qual é um humano e qual é uma IA, a IA é considerada como tendo “passado” este teste e exibido uma inteligência indistinguível de um humano real.
Portanto, em essa nova pesquisa, os pesquisadores realizaram dois experimentos em grande escala onde as pessoas conversaram simultaneamente com um humano e uma IA por cinco minutos, e depois adivinhavam qual era qual. O destaque foi o GPT-4.0. Quando foi solicitado a agir como um jovem tímido, gíria, foi escolhido como humano 73% das vezes, mais frequentemente do que os humanos reais.
Ele estava enfrentando um modelo Lama também enganou [00:39:00] participantes mais frequentemente do que não, enquanto sistemas mais antigos, como o GPT-4, são quase sempre identificados como bots. Curiosamente aqui, a diferença que realmente fez toda a diferença foi que, quando não houve instruções específicas sobre como agir como humano, as taxas de vitória da IA caíram.
Mas mesmo assim, alguns ainda igualaram o desempenho humano. Então, isso é Paul. Você sabe, definitivamente interessante porque o teste de Turing é essa coisa lendária na IA. Obviamente, temos que tomar qualquer reivindicação sobre tudo isso com um grão de sal. Os pesquisadores admitiram que ainda há muito que não é claro sobre o que isso poderia realmente significar e o quanto isso importa em termos de fazer um julgamento sobre o nível de inteligência exibido aqui.
Mas acho que, em um sentido prático, é realmente impressionante que temos algumas boas evidências agora de que a IA de hoje, atiçada da maneira certa, pode ser basicamente indistinguível de um humano em certos tipos de conversas.
Paul Roetzer: Sim. E eu acho que a parte toda sobre instruí-lo a agir como um humano. Sim.
Isso não é difícil. Isso, quero dizer, você pode fazer essa escolha de instrução como no sistema prompt. Você poderia ter uma empresa, poderia ser uma startup que constrói em cima de um modelo de código aberto que escolhe fazer um chatbot muito humano e, imediatamente, a coisa parece mais humana do que humana. já discutimos no show várias vezes sobre como a empatia e é uma espécie de, eu costumava pensar que era uma característica exclusivamente humana que estou convencido de que não é mais, ou pelo menos a habilidade de simular empatia.
E assim, você pode ensinar esses modelos ou poderia informar seu modelo, como você poderia entrar e construir um GPT personalizado e dizer: “Quero que você seja apenas empático. Como se eu apenas precisasse de alguém para conversar, que entenda como é difícil ser um empreendedor e quero que você seja, você sabe. Quero apenas que você me escute [00:41:00] e me ajude a encontrar meu caminho.” E ele fará isso de uma maneira que, melhor do que muitos humanos o fariam.
E isso é uma situação esquisita. Portanto, eu, quero dizer, essa constante, tipo, nós passamos o teste de Turing? Como se eu sentisse que o teste de Turing teve seu dia tipo, você sabe, talvez nós provavelmente já o superamos no, definitivamente quando o Chat GPT foi lançado. Acho que agora estamos tentando encontrar maneiras de realizar o teste para dizer oficialmente que agora passamos.
É como, eu nem sei se vale a pena discutir a continuação da pesquisa. É como se já estivéssemos lá, as pessoas estão convencidas de que essas coisas são mais humanas do que humanas em muitos casos, especialmente se forem solicitadas para serem dessa forma. E eu acho que, quando se trata de diferentes partes de, você sabe, psicologia e terapia e coisas assim, como essas coisas já estão sendo feitas.
Como as pessoas as estão utilizando como terapeutas. E eu não estou comentando se isso é bom ou ruim para a sociedade. Estou apenas dizendo que isso está acontecendo. E as empresas de VC [00:42:00] estão investindo nas empresas para fazer isso porque elas estão se destacando.
Sim, e essa geração atual. E você sabe, não está tão longe onde a voz vem junto com tudo isso também.
E agora você realmente sente que está conversando com um terapeuta ou um conselheiro ou consultor e sua, a instrução do sistema lhes diz para ser muito, você sabe, solidário e empático. E, honestamente, como em algum momento, você apenas, você vai simplesmente preferir falar com a IA. Eu penso que muitas pessoas vão chegar a um ponto onde apenas preferem falar com a IA sobre essas coisas.
Essas coisas como os tópicos difíceis que são estranhos para se falar com as pessoas. Como, não é estranho conversar com sua IA. E eu penso que grande parte da sociedade vai, realmente, acaba se acostumando a isso rapidamente. Pode acabar sendo como, houve alguns dados essa semana sobre como a baixa adoção realmente está na vasta maioria da sociedade.
Eu poderia ver que o chatbot empático com uma voz humana semelhante sendo como o ponto de entrada para muitas pessoas que talvez estejam permanecendo à margem ainda.
Sim. E é por isso que mencionei isso na [00:43:00] série AGI, como achei que a voz iria se tornar uma interface dominante. E acho que isso poderia ser um portal para a IA generativa para muitas pessoas que podem estar sentadas na lateral ainda.
Mike Kaput: Sim, quase como jogar fora o teste de Turing e olhar hoje para todos os milhões de pessoas que usam a IA de caráter para relacionamentos ou terapia, isso te diz tudo que você precisa saber.
Paul Roetzer: Sim. Isso volta para como, quando discutimos as avaliações, como esses laboratórios realizam todas essas avaliações realmente sofisticadas para descobrir quão inteligentes esses modelos realmente são.
E minha sensação é como se isso fosse incrível. E eu entendo que as pessoas técnicas em IA queiram fazer isso. O que eu quero saber é, tipo, como funciona como um profissional de marketing? Como funciona como psicólogo? Como funciona como médico? Como eu quero avaliações que estejam ligadas à vida real. E eu acho que é a mesma coisa que você está aludindo.
É apenas, exatamente. Precisamos que isso seja prático.
Anthropic Introduz Claude para Educação
[00:43:47] Mike Kaput: Nosso próximo tópico é sobre a Anthropic. A Anthropic acaba de lançar Claude para Educação, que é uma nova versão da sua IA voltada especificamente para faculdades e universidades. [00:44:00] Portanto, o centro do Claude para Educação é um novo modo de aprendizagem que prioriza a pensamento crítico em vez de respostas rápidas.
Em vez de resolver problemas para os alunos, Claude fornece orientações usando métodos socráticos, fazendo perguntas como “Quais evidências apoiam sua conclusão?” Claude está indo para todo o campus como parte dessa iniciativa na Northeastern University, LSE e Champlain College, dando a cada aluno e membro do corpo docente acesso ao Claude; somente na Northeastern, isso representa 50.000 usuários em 13 campi.
Eles também estão se concentrando em um programa de embaixador no campus, dando créditos gratuitos de API para construtores estudantes e parcerias com a internet dois e o canvas maker para incorporar o Claude nas plataformas acadêmicas existentes. Portanto, Paul, isso definitivamente não parece apenas um comunicado à imprensa. Esta é uma iniciativa bastante abrangente em [00:45:00] educação.
Você conversou com muitas escolas sobre a necessidade de alfabetização em IA. O que você acha de como a Anthropic progrediu?
Paul Roetzer: Sim, eu acho ótimo ver isso. Eu, a OpenAI fez algo semelhante com sua academia. Eles acabaram de anunciar na semana passada. Eles têm como uma IA para K-12. Sim. Onde eles estão tentando entrar na educação e acho que eles não tinham um para o ensino superior ainda aberto.
Eu também anunciei, você sabe, não para ficar para trás, amam roubar as manchetes e ninguém mais. Acho que tuitaram, foi no final de semana, acho. Ou não, o que eles, então foi na sexta-feira. Então, foi tipo na quarta ou quinta. que agora estão dando tipo ChatGBT gratuito para estudantes de faculdade, acho que pelos próximos dois meses.
Sabe, algo assim. Portanto, acho que todos estão jogando nesse espaço. Eu não quero, tipo, não sei, como a educação é tão disruptiva e não sei se, você sabe, as escolas ainda estão compreendendo. Eu vi algumas coisas realmente impressionantes. Como tenho visto algumas, algumas escolas de ensino médio, vi algumas universidades que estão sendo muito proativas, mas não, eu não acho que compartilhei esse exemplo no podcast da semana passada, mas, eu [00:46:00] estava, eu estava em casa com meus filhos outro dia.
Minhas esposa não estava aqui, e minha filha de 13 anos, sétimo ano, estava fazendo tipo álgebra avançada ou algo assim. Ela disse: “Eu preciso de ajuda. Estou com o dever de casa de matemática.” Eu disse: “Isso é uma coisa de mamãe. Eu não sou o cara da matemática. Quando você entrar na linguagem, avise-me e nós conversaremos.” Ela disse: “Não, mamãe não está aqui.”
Sí, eu preciso de ajuda. Portanto, era um problema de matemática. Não tenho ideia de como resolver. Então eu abri, você sabe, entro no Chat, GBT, abri meu, você sabe, a câmera. Eu não sei nem como chamam isso, como chamam? É uma coisa ao vivo ou, não sei.
Mike Kaput: Oh, você quer dizer quando você está mostrando ao vivo uma coisa diferente?
Paul Roetzer: Apenas liguei a câmera e ele pôde ver o que eu estava vendo. Eu sei que sim. Estou certo de que é o Projeto Astra para, para o Google, mas não sei como eles realmente chamam lá na OpenAI. Mas se você não sabe do que estou falando, apenas vá no modo de voz e então, nesse modo de voz tem uma câmera, clique e agora ele vê o que você vê.
Então eu segurei isso sobre o problema de matemática e disse: “Estou trabalhando com minha filha de 13 anos. Não me dê a resposta. Nós precisamos entender como resolver esse problema.” E ele disse: “Ótimo. Tudo bem, vamos passar pela etapa um.” E ele realmente, tipo, lia e então dizia “Você entende como fazer isso?”
E ele ia explicar os passos e, em seguida, eu mostrava o que ela estava escrevendo e disse: “Você está indo muito bem agora quando chegar a este ponto. Você sabe? E então eu faria mais perguntas e ela responderia.
Portanto, agora ela está interagindo com a IA. Sim. E nós caminhamos pelos cinco passos do problema com ela realmente fazendo isso e sendo guiada sobre como fazer, não recebendo a resposta. E para mim, isso é simplesmente tão representativo de onde isso pode ir, se for ensinado de maneira responsável. Se as crianças apenas têm o ChatGPT e apenas dizem: “Ei, me dê a resposta para esta pergunta”, então nós perdemos.
Portanto, acho que ter a Anthropic, o Google e a OpenAI e outros agindo proativamente para a construção de educação e construindo de uma maneira responsável para a educação é algo realmente bom. E devemos apoiar isso e incentivar mais.
Instituto Tony Blair Lança Relatório Controverso sobre Direitos Autorais de IA
[00:47:59] Mike Kaput: [00:48:00] Sim, é realmente legal ver. Em seguida, o Instituto Tony Blair, do Reino Unido, lançou um novo relatório abrangente pedindo uma reformulação da lei de direitos autorais do Reino Unido na era da IA, e suas recomendações já estão causando alguma indignação.
Uma das principais razões é que o relatório endossa uma exceção para mineração de texto e dados na lei de direitos autorais que permitiria que empresas de IA treinassem modelos em conteúdo publicamente disponível, a menos que os detentores de direitos optassem por não permitir. Alega que esse modelo de opt-out equilibraria a inovação e o controle do criador, mas o comentador de direitos autorais de IA de longa data, Ed Newton Rex, que já discutimos bastante no podcast, chamou este relatório de basicamente “terrível” e “um documento de lobby da grande tecnologia.”
Ele diz que a lei de direitos autorais do Reino Unido já confere aos criadores controle sobre como seu trabalho é utilizado, e que mudar para um regime de opt-out reduziria esse controle. De maneira mais contundente, acusa os autores de retórica enganosa, comparando seus argumentos à afirmação de que usar a arte de IA de alguém para treinamento não é diferente de um humano se inspirando nela.
Portanto, ele basicamente diz que, sob esse tipo de esquema, os criadores perderiam seus direitos. O público arcaria com a conta, e as empresas de IA continuariam a treinar com o trabalho de outros gratuitamente. Agora, Paul, isso é obviamente específico ao Reino Unido, mas queríamos falar sobre isso no contexto mais amplo dos tópicos de direitos autorais que cobrimos na semana passada.
Artistas e autores em muitas áreas estão indignados com a maneira como modelos de IA estão sendo treinados em seus trabalhos sem sua permissão. Isso definitivamente parece que algumas partes, quer estejam realmente fazendo lobby por laboratórios de IA ou não, estão tentando argumentar que as empresas de IA devem ser autorizadas a treinar em conteúdo publicamente disponível e que devemos isentá-los disso a partir dos direitos autorais.
O que você pensa sobre essa abordagem e deveríamos esperar ver mais argumentos como esse nos EUA?
Paul Roetzer: Quero dizer, essas empresas de IA têm muito dinheiro para esforços de lobby, e acho que, no final das contas, esses esforços de lobby vencem. Acho que a coisa do opt-out é uma piada. Eu sempre achei que essa era uma solução absurda.
Foi apenas uma coisa óbvia a apresentar. Mas, quero dizer, se você é um criador de qualquer forma, você sabe como é prevalente as pessoas roubarem seu material. Qualquer coisa que já criamos por trás de um muro de pagamento, eu garanto que alguém a roubou 10 vezes e publicou em diferentes lugares. Os sites dos quais eu nunca clicaria e baixaria algo, mas, você sabe, seja filme ou cursos ou livros ou o que for, sempre é roubado.
Sim. É um jogo de whack-a-mole tentar acompanhar isso. Portanto, temos um sistema interno para rastrear todas as coisas que as pessoas roubam de nós e o que podemos fazer sobre isso? Pague nossos advogados toda vez que encontramos. E isso é fácil de encontrar. Como você pode simplesmente pesquisar por palavra-chave e encontrar as pessoas que estão roubando seu material.
Sim. Como, agora, como podemos, como, como poderíamos saber, a menos que alguém vaze os [00:51:00] dados de treinamento, se eles o roubaram ou não? Eu vi algo ontem à noite que dizia que tinham provas agora de que uma das principais empresas de modelos, que eu não vou jogar sob o ônibus agora, realmente roubou material de por trás do pagamento de um grande editor e eles podem provar isso.
Portanto, só me sinto frustrado com a questão de direitos autorais porque ainda não ouvi sobre qualquer tipo de plano razoável de como você reconhece e compensa os criadores cujo trabalho possibilitou esses modelos. Certo. Mesmo que eles venham com um plano. Como saberemos? Como iremos localizar isso, exceto ser capaz de auditar o sistema e descobrir quais foram os dados de treinamento reais ou a alguém processá-los.
E então, sete anos depois, é como, ok, sim, desculpe, seus sete livros foram usados no treinamento do modelo. Aqui estão seus $15. Tipo, não sei, não tenho uma solução, mas é muito frustrante que ninguém parece ter um plano para fazer isso. É apenas, sim, provavelmente devemos pagá-los, mas primeiro temos que admitir que roubamos, [00:52:00] mas não podemos admitir que roubamos porque vamos alegar que é uso justo.
E então, eventualmente, teremos, como, um processo coletivo e, talvez, pagaremos um bilhão de dólares e esse bilhão de dólares será dividido entre 200 milhões de criadores. E, você sabe, aqui está seu cheque de $50. Tipo, não sei. Espero que alguém que é muito mais inteligente que eu nessa área, eventualmente, chegue a um plano e que as empresas de modelos concordem em fazer algo para compensar as pessoas por seu trabalho.
Mike Kaput: E, enquanto isso, como falamos na semana passada, espere que a reação continue.
Paul Roetzer: Sim. E está crescendo. Sim, com certeza.
IA Domina Minecraft
<
Conteúdo relacionado
Como as Tecnologias Emergentes Estão Transformando o Processo Criativo
[the_ad id="145565"] Este post foi criado em parceria com a Gear Seven. Principais aprendizados A inteligência artificial (IA), a realidade aumentada (AR) e outras ferramentas…
Líderes da TBWA sobre como Vender a Disrupção em Tempos Turbulentos
[the_ad id="145565"] A mantra da TBWA é a disrupção. Mas será que a disrupção está vendendo quando as marcas estão buscando se manter seguras em tempos turbulentos? A CEO…
O ChatGPT Agora Irá Lembrar de Tudo que Você Diz a Ele
[the_ad id="145565"] Recentemente, a OpenAI lançou um novo recurso de memória para o ChatGPT que permite que ele se lembre de tudo o que você já discutiu com ele, não apenas os…