Sure! Here’s the rewritten content in Portuguese, retaining the HTML tags:
<div>
<div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Junte-se a nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba mais</em></p>
<!-- /wp:paragraph -->
<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator --></div><p>O horizonte distante é sempre turvo, os detalhes minuciosos obscurecidos por pura distância e neblina atmosférica. É por isso que prever o futuro é tão impreciso: não conseguimos ver claramente os contornos das formas e eventos à nossa frente. Em vez disso, fazemos suposições fundamentadas. </p>
<p>O recém-publicado <a target="_blank" href="https://ai-2027.com/" target="_blank" rel="noreferrer noopener">AI 2027</a>, desenvolvido por uma equipe de pesquisadores de IA e preditores com experiência em instituições como OpenAI e o Centro de Política de IA, oferece uma previsão detalhada de 2 a 3 anos para o futuro, incluindo marcos técnicos específicos. Sendo de curto prazo, fala com grande clareza sobre nosso futuro próximo em IA. </p>
<p>Informado por extensa feedback de especialistas e exercícios de planejamento de cenários, o AI 2027 delineia uma progressão trimestre a trimestre das capacidades de IA esperadas, notavelmente modelos multimodais alcançando raciocínio avançado e autonomia. O que torna essa previsão particularmente notável é tanto sua especificidade quanto a credibilidade de seus colaboradores, que têm visão direta sobre os atuais fluxos de pesquisa.</p>
<p>A previsão mais notável é que a inteligência geral artificial (AGI) será alcançada em 2027, e a superinteligência artificial (ASI) seguirá poucos meses depois. A AGI iguala ou supera as capacidades humanas em praticamente todas as tarefas cognitivas, desde pesquisa científica até empreendimentos criativos, enquanto demonstra adaptabilidade, raciocínio de senso comum e autoaperfeiçoamento. A ASI vai além, representando sistemas que superam dramaticamente a inteligência humana, com a capacidade de resolver problemas que não conseguimos compreender.</p>
<p>Como muitas previsões, essas se baseiam em suposições, sendo que uma delas é que modelos e aplicações de IA continuarão a progredir exponencialmente, como têm feito nos últimos anos. Assim, é plausível, mas não garantido, esperar progresso exponencial, especialmente à medida que a escala desses modelos pode agora estar enfrentando retornos decrescentes.</p>
<p>Nem todos concordam com essas previsões. Ali Farhadi, CEO do Instituto Allen para Inteligência Artificial, disse ao <a target="_blank" href="https://www.nytimes.com/2025/04/03/technology/ai-futures-project-ai-2027.html?searchResultPosition=1" target="_blank" rel="noreferrer noopener"><em>The New York Times</em></a>: “Estou totalmente a favor de projeções e previsões, mas essa [AI 2027] não parece estar fundamentada em evidências científicas, ou na realidade de como as coisas estão evoluindo em IA.” </p>
<p>No entanto, há outros que veem essa evolução como plausível. Jack Clark, cofundador da Anthropic, escreveu em sua <a target="_blank" href="https://importai.substack.com/p/import-ai-408-multi-code-swe-bench?utm_source=post-email-title&publication_id=1317673&post_id=161266154&utm_campaign=email-post-title&isFreemail=false&r=14wyl2&triedRedirect=true&utm_medium=email" target="_blank" rel="noreferrer noopener">Import AI</a> que o AI 2027 é: “O melhor tratamento até agora sobre como seria 'viver em um exponencial'.” Ele acrescentou que é uma <em>“</em>narrativa tecnicamente astuta sobre os próximos anos de desenvolvimento em IA.” Essa linha do tempo também está alinhada com a proposta pelo CEO da Anthropic, Dario Amodei, que disse que a IA que pode superar os humanos em quase tudo chegará nos próximos dois a três anos. E, o Google DeepMind afirmou em <a target="_blank" href="http://chrome-extension/efaidnbmnnnibpcajpcglclefindmkaj/https:/storage.googleapis.com/deepmind-media/DeepMind.com/Blog/evaluating-potential-cybersecurity-threats-of-advanced-ai/An_Approach_to_Technical_AGI_Safety_Apr_2025.pdf" target="_blank" rel="noreferrer noopener">um novo artigo de pesquisa</a> que a AGI poderia plausivelmente surgir até 2030.</p>
<h2 class="wp-block-heading" id="h-the-great-acceleration-disruption-without-precedent">A grande aceleração: Disrupção sem precedentes</h2>
<p>Parece um momento auspicioso. Houve momentos semelhantes na história, incluindo a invenção da imprensa ou a disseminação da eletricidade. No entanto, esses avanços exigiram muitos anos e décadas para ter um impacto significativo. </p>
<p>A chegada da AGI parece diferente, e potencialmente assustadora, especialmente se for iminente. O AI 2027 descreve um cenário que, devido ao desalinhamento com os valores humanos, uma IA superinteligente destrói a humanidade. Se eles estiverem certos, o risco mais consequente para a humanidade pode agora estar dentro do mesmo horizonte de planejamento que a sua próxima atualização de smartphone. Por sua vez, o artigo do Google DeepMind observa que a extinção humana é um resultado possível da AGI, embora pouco provável segundo sua visão.</p>
<p>As opiniões mudam lentamente até que as pessoas sejam apresentadas a evidências avassaladoras. Essa é uma das lições da obra singular de Thomas Kuhn, “<a target="_blank" href="https://en.wikipedia.org/wiki/The_Structure_of_Scientific_Revolutions" target="_blank" rel="noreferrer noopener">A Estrutura das Revoluções Científicas</a>.” Kuhn nos lembra que visões de mundo não mudam da noite para o dia, até que, de repente, mudam. E com a IA, essa mudança pode já estar em andamento.</p>
<h2 class="wp-block-heading" id="h-the-future-draws-near">O futuro se aproxima</h2>
<p>Antes do surgimento dos grandes modelos de linguagem (LLMs) e do ChatGPT, a projeção de prazo mediano para a AGI era muito mais longa do que é hoje. O consenso entre especialistas e mercados de previsão colocava a chegada esperada da AGI em torno do ano 2058. Antes de 2023, Geoffrey Hinton — um dos “Padrinhos da IA” e vencedor do Prêmio Turing — <a target="_blank" href="https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html" target="_blank" rel="noreferrer noopener">pensava que a AGI</a> estava “a 30 a 50 anos ou até mais longe.” No entanto, o progresso mostrado pelos LLMs fez com que ele mudasse de ideia e dissesse que ela <a target="_blank" href="https://x.com/geoffreyhinton/status/1653687894534504451?lang=pt" target="_blank" rel="noreferrer noopener">poderia chegar já em 2028</a>.</p>
<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="862" height="318" src="https://venturebeat.com/wp-content/uploads/2025/04/image2.png?w=800" alt="" class="wp-image-3004825" /></figure>
<p>Existem várias implicações para a humanidade se a AGI chegar nos próximos anos e for rapidamente seguida pela ASI. Escrevendo na <a target="_blank" href="https://fortune.com/2025/04/15/ai-timelines-agi-safety/" target="_blank" rel="noreferrer noopener">Fortune</a>, Jeremy Kahn disse que se a AGI chegar nos próximos anos “isso pode realmente levar a grandes perdas de empregos, já que muitas organizações seriam tentadas a automatizar funções.”</p>
<p>Um horizonte de AGI de dois anos oferece um período de graça insuficiente para que indivíduos e empresas se adaptem. Indústrias como atendimento ao cliente, criação de conteúdo, programação e análise de dados podem enfrentar uma transformação dramática antes que a infraestrutura de requalificação possa ser dimensionada. Essa pressão só aumentará se uma recessão ocorrer nesse período, quando as empresas já estão buscando reduzir custos com folha de pagamento e frequentemente substituem pessoal por automação.</p>
<h2 class="wp-block-heading" id="h-cogito-ergo-ai">Cogito, ergo … IA? </h2>
<p>Mesmo que a AGI não leve a profundas perdas de empregos ou à extinção da espécie, há outras consequências sérias. Desde a Era da Razão, a existência humana tem sido fundamentada na crença de que importamos porque pensamos. </p>
<p>Essa crença de que pensar define nossa existência tem raízes filosóficas profundas. Foi René Descartes, escrevendo em 1637, quem articulou a agora famosa frase: “Je pense, donc je suis” (“Penso, logo existo”). Ele a traduziu mais tarde para o latim: <em>“</em>Cogito, ergo sum<em>.”</em> Ao fazer isso, ele propôs que a certeza poderia ser encontrada no ato do pensamento individual. Mesmo que fosse enganado por seus sentidos ou mal orientado por outros, o simples fato de estar pensando provava que existia.</p>
<p>Nesta visão, o eu está ancorado na cognição. Foi uma ideia revolucionária na época e deu origem ao humanismo iluminista, ao método científico e, em última análise, à democracia moderna e aos direitos individuais. Os humanos como pensadores tornaram-se as figuras centrais do mundo moderno.</p>
<p>O que levanta uma questão profunda: se as máquinas agora podem pensar, ou parecem pensar, e nós delegamos nosso pensamento à IA, o que isso significa para a moderna concepção de eu? Um <a target="_blank" href="https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf" target="_blank" rel="noreferrer noopener">estudo recente</a> reportado por <a target="_blank" href="https://www.404media.co/microsoft-study-finds-ai-makes-human-cognition-atrophied-and-unprepared-3/" target="_blank" rel="noreferrer noopener">404 Media</a> explora esse dilema. Ele descobriu que quando as pessoas dependem fortemente da IA generativa para o trabalho, se envolvem em menos pensamento crítico, o que, ao longo do tempo, pode “resultar na deterioração de faculdades cognitivas que deveriam ser preservadas.” </p>
<h2 class="wp-block-heading" id="h-where-do-we-go-from-here">Para onde vamos a partir daqui?</h2>
<p>Se a AGI está chegando nos próximos anos — ou logo depois — devemos nos deparar rapidamente com suas implicações não apenas para empregos e segurança, mas também para quem somos. E devemos fazer isso reconhecendo também seu potencial extraordinário para acelerar descobertas, reduzir sofrimentos e expandir a capacidade humana de maneiras sem precedentes. Por exemplo, Amodei disse que “IA potente” permitirá que 100 anos de pesquisa biológica e seus benefícios, incluindo a melhoria da saúde, sejam comprimidos em 5 a 10 anos. </p>
<p>As previsões apresentadas no AI 2027 podem ou não estar corretas, mas são plausíveis e provocativas. E essa plausibilidade deve ser suficiente. Como humanos com agência e como membros de empresas, governos e sociedades, devemos agir agora para nos preparar para o que pode estar por vir. </p>
<p>Para as empresas, isso significa investir tanto em pesquisa de segurança técnica em IA quanto em resiliência organizacional, criando funções que integrem capacidades de IA enquanto amplificam as forças humanas. Para os governos, isso requer um desenvolvimento acelerado de estruturas regulatórias que abordem tanto preocupações imediatas, como avaliação de modelos, quanto riscos existenciais de longo prazo. Para os indivíduos, significa abraçar o aprendizado contínuo focado em habilidades exclusivamente humanas, incluindo criatividade, inteligência emocional e julgamento complexo, enquanto se desenvolvem relações de trabalho saudáveis com ferramentas de IA que não diminuam nossa agência.</p>
<p>O tempo para debates abstratos sobre futuros distantes passou; a preparação concreta para transformações de curto prazo é urgentemente necessária. Nosso futuro não será escrito apenas por algoritmos. Será moldado pelas escolhas que fazemos e pelos valores que defendemos, começando hoje.</p>
<p><em>Gary Grossman é EVP da prática de tecnologia na <a target="_blank" href="https://www.edelman.com/" target="_blank" rel="noreferrer noopener">Edelman</a> e líder global do Centro de Excelência em IA da Edelman.</em></p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
<div class="Boilerplate__newsletter-container vb">
<div class="Boilerplate__newsletter-main">
<p><strong>Insights diários sobre casos de uso de negócios com VB Daily</strong></p>
<p class="copy">Se você quer impressionar seu chefe, o VB Daily tem tudo o que você precisa. Damos a você a dica interna sobre o que as empresas estão fazendo com a IA generativa, desde mudanças regulatórias até implantações práticas, para que você possa compartilhar percepções para o máximo ROI.</p>
<p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
<p class="Form__success" id="boilerplateNewsletterConfirmation">
Obrigado por assinar. Confira mais boletins da VB aqui.
</p>
<p class="Form__error">Ocorreu um erro.</p>
</div>
<div class="image-container">
<img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
</div>
</div>
<!-- /wp:shortcode --></div>
</div>
This translated content keeps all HTML tags intact while rewriting the original content in Portuguese.
Conteúdo relacionado
O modelo de IA o3 da OpenAI apresenta pontuação inferior em um benchmark do que a empresa inicialmente sugeriu.
[the_ad id="145565"] Uma discrepância entre os resultados de benchmark de primeira e terceira partes para o modelo de IA o3 da OpenAI está levantando questões sobre a…
Sua cortesia pode ser cara para a OpenAI.
[the_ad id="145565"] “Eu me pergunto quanto dinheiro a OpenAI perdeu com custos de eletricidade por conta das pessoas que dizem ‘por favor’ e ‘obrigado’ para seus modelos.” Foi…
Por que os Caminhões Virtuais da Waabi, Movidos por IA, São o Futuro da Tecnologia de Veículos Autônomos
[the_ad id="145565"] Imagine um caminhão de 80.000 libras trafegando por uma rodovia nevoenta à noite. De repente, um cervo surge na pista e o caminhão manobra suavemente,…