Com o lançamento de novos modelos de IA que são melhores em codificação, os desenvolvedores estão cada vez mais utilizando IA para gerar código. Um dos exemplos mais recentes é o atual lote saindo da Y Combinator, o famoso acelerador de startups do Vale do Silício. Um quarto da turma W25 de startups teve 95% de suas bases de código geradas por IA, disse o sócio-gerente da YC, Jared Friedman, durante uma conversa postada no YouTube.
Friedman afirmou que essa cifra de 95% não incluía códigos escritos para importar bibliotecas, mas considerava o código digitado por humanos em comparação com o da IA.
“Não é como se tivéssemos financiado um grupo de fundadores não técnicos. Cada uma dessas pessoas é altamente técnica, completamente capaz de construir seus próprios produtos do zero. Há um ano, eles teriam construído seu produto do zero – mas agora 95% dele é construído por uma IA”, disse ele.
Em um vídeo intitulado “Vibe Coding É o Futuro”, Friedman, juntamente com o CEO da YC, Garry Tan, o sócio-gerente Harj Taggar e a parceira geral Diana Hu, discutiram a tendência de usar linguagem natural e instintos para criar código.
No mês passado, o ex-chefe de IA da Tesla e ex-pesquisador da OpenAI, Andrej Karpathy usou o termo “vibe coding” para descrever uma maneira de codificar usando grandes modelos de linguagem (LLMs) sem se concentrar no código em si.
O código gerado pela IA está longe de ser perfeito, porém. Estudos e relatórios observaram que alguns códigos gerados por IA podem inserir falhas de segurança em aplicações, causar interrupções ou cometer erros, forçando os desenvolvedores a mudar o código ou debugar intensamente.
Durante a discussão, Hu disse que mesmo que os construtores de produtos dependam fortemente da IA, uma habilidade que eles precisariam ter é a de ler o código e encontrar bugs.
“Você precisa ter o gosto e treinamento suficientes para saber que um LLM está gerando coisas ruins ou boas. Para fazer um bom ‘vibe coding’, ainda é necessário ter gosto e conhecimento para julgar o que é bom ou ruim”, disse ela.
Tan também concordou que os fundadores precisam de treinamento clássico em codificação para sustentar produtos a longo prazo.
“Digamos que uma startup com 95% do código gerado por IA entre no [mercado], e um ou dois anos depois, tenha 100 milhões de usuários nesse produto. Ele irá falhar ou não? As primeiras versões de modelos de raciocínio não são boas em depuração. Portanto, você precisa se aprofundar no que está acontecendo com o produto”, sugeriu.
Os VCs e desenvolvedores estão empolgados com a codificação impulsionada por IA. Startups como Bolt.new, Codeium, Cursor, Lovable e Magic arrecadaram centenas de milhões de dólares em financiamento nos últimos 12 meses.
“Isso não é uma moda passageira. Isso não vai embora. Este é o modo dominante de codificar. E se você não está fazendo isso, pode acabar ficando para trás”, acrescentou Tan.
Conteúdo relacionado
Anthropic e Google conquistam vitória ao conseguir Harvey, apoiado pela OpenAI, como usuário.
[the_ad id="145565"] O popular ferramenta de IA legal Harvey agora utilizará modelos de fundação de ponta da Anthropic e do Google, avançando além do uso exclusivo dos modelos…
O relatório de segurança prometido pela xAI está desaparecido.
[the_ad id="145565"] A empresa de IA de Elon Musk, xAI, perdeu um prazo autoimposto para publicar um framework de segurança de IA finalizado, conforme observado pelo grupo de…
Google testa substituir ‘Estou Sentindo Sorte’ por ‘Modo AI’
[the_ad id="145565"] O Google está testando um redesign em sua página inicial de Pesquisa, no qual o “Modo AI”, o recurso experimental de busca alimentado por IA que a empresa…