A inteligência artificial é um campo profundo e complexo. Os cientistas que atuam nessa área frequentemente dependem de jargões e termos técnicos para explicar suas pesquisas. Como resultado, muitas vezes precisamos usar esses termos técnicos em nossa cobertura da indústria de inteligência artificial. Por isso, achamos que seria útil compilar um glossário com definições de algumas das palavras e frases mais importantes que utilizamos em nossos artigos.
Atualizaremos regularmente este glossário para adicionar novas entradas, à medida que os pesquisadores continuam a descobrir métodos inovadores para avançar na fronteira da inteligência artificial, identificando riscos emergentes de segurança.
Um agente de IA refere-se a uma ferramenta que utiliza tecnologias de IA para realizar uma série de tarefas em seu nome — além do que um chatbot básico poderia fazer — como, por exemplo, enviar despesas, reservar passagens ou uma mesa em um restaurante, ou até mesmo escrever e manter código. No entanto, como já explicamos antes, existem muitas variáveis nesse espaço emergente, então diferentes pessoas podem ter significados diferentes ao se referirem a um agente de IA. A infraestrutura também ainda está sendo construída para entregar as capacidades planejadas. Mas o conceito básico implica um sistema autônomo que pode usar múltiplos sistemas de IA para realizar tarefas em várias etapas.
Diante de uma pergunta simples, um cérebro humano pode responder sem muito pensamento — coisas como “Qual animal é mais alto, uma girafa ou um gato?”. Mas, em muitos casos, você pode precisar de papel e caneta para chegar à resposta correta, pois há etapas intermediárias. Por exemplo, se um fazendeiro tem galinhas e vacas, e juntos têm 40 cabeças e 120 patas, você pode precisar escrever uma equação simples para chegar à resposta (20 galinhas e 20 vacas).
No contexto da IA, o raciocínio em cadeia para grandes modelos de linguagem significa quebrar um problema em etapas menores e intermediárias para melhorar a qualidade do resultado final. Normalmente, leva mais tempo chegar a uma resposta, mas a resposta tem mais probabilidade de estar correta, especialmente em contextos de lógica ou codificação. Os chamados modelos de raciocínio são desenvolvidos a partir de grandes modelos de linguagem tradicionais e otimizados para o pensamento em cadeia, graças ao aprendizado por reforço.
(Veja: Grande modelo de linguagem)
Um subconjunto de aprendizado de máquina autorregulável em que algoritmos de IA são projetados com uma estrutura de rede neural artificial (ANN) em múltiplas camadas. Isso permite que eles façam correlações mais complexas em comparação com sistemas de aprendizado de máquina mais simples, como modelos lineares ou árvores de decisão. A estrutura dos algoritmos de aprendizado profundo é inspirada nos caminhos interconectados dos neurônios no cérebro humano.
As IAs de aprendizado profundo são capazes de identificar características importantes nos dados por conta própria, ao invés de exigir que engenheiros humanos definam essas características. A estrutura também suporta algoritmos que podem aprender com erros e, por meio de repetição e ajustes, melhorar suas próprias saídas. No entanto, sistemas de aprendizado profundo requerem uma grande quantidade de pontos de dados para obter bons resultados (milhões ou mais). Também costuma levar mais tempo para treinar modelos de aprendizado profundo em comparação com algoritmos de aprendizado de máquina mais simples — portanto, os custos de desenvolvimento tendem a ser mais altos.
(Veja: Rede neural)
Isso significa um treinamento adicional de um modelo de IA que visa otimizar o desempenho para uma tarefa ou área mais específica do que era anteriormente o foco do seu treinamento — tipicamente, por meio da alimentação de novos dados especializados (ou seja, orientados para a tarefa).
Muitas startups de IA estão adotando grandes modelos de linguagem como ponto de partida para construir um produto comercial, mas buscando aumentar a utilidade para um setor ou tarefa alvo, complementando ciclos de treinamento anteriores com ajustes com base em seu próprio conhecimento e expertise no domínio.
(Veja: Grande modelo de linguagem (LLM))
Grandes modelos de linguagem, ou LLMs, são os modelos de IA usados por assistentes de IA populares, como ChatGPT, Claude, Gemini do Google, AI Llama da Meta, Microsoft Copilot ou Le Chat da Mistral. Quando você conversa com um assistente de IA, você interage com um grande modelo de linguagem que processa seu pedido diretamente ou com a ajuda de diferentes ferramentas disponíveis, como navegação na web ou interpretadores de código.
Assistentes de IA e LLMs podem ter diferentes nomes. Por exemplo, GPT é o modelo de linguagem grande da OpenAI e ChatGPT é o produto assistente de IA.
Os LLMs são redes neurais profundas compostas por bilhões de parâmetros numéricos (ou pesos, veja abaixo) que aprendem as relações entre palavras e frases e criam uma representação da linguagem, uma espécie de mapa multidimensional de palavras.
Esses modelos são criados a partir da codificação dos padrões que encontram em bilhões de livros, artigos e transcrições. Quando você provoca um LLM, o modelo gera o padrão mais provável que se ajusta ao pedido. Ele então avalia a palavra mais provável seguinte após a última, com base no que foi dito anteriormente. Repetir, repetir e repetir.
(Veja: Rede neural)
Rede neural refere-se à estrutura algorítmica em múltiplas camadas que fundamenta o aprendizado profundo — e, de forma mais ampla, todo o boom nas ferramentas de IA generativa que seguiram o surgimento de grandes modelos de linguagem.
Embora a ideia de se inspirar nos caminhos densamente interconectados do cérebro humano como estrutura de design para algoritmos de processamento de dados date desde a década de 1940, foi a ascensão mais recente do hardware de processamento gráfico (GPUs) — impulsionada pela indústria de jogos — que realmente desbloqueou o poder dessa teoria. Esses chips se mostraram bem adaptados para treinar algoritmos com muitas mais camadas do que era possível em épocas anteriores — permitindo que sistemas de IA baseados em redes neurais atingissem um desempenho muito melhor em muitos domínios, seja para reconhecimento de voz, navegação autônoma ou descoberta de medicamentos.
(Veja: Grande modelo de linguagem (LLM))
Pesos são fundamentais para o treinamento de IA, pois determinam quanta importância (ou peso) é dada às diferentes características (ou variáveis de entrada) nos dados utilizados para treinar o sistema — moldando assim a saída do modelo de IA.
Em outras palavras, pesos são parâmetros numéricos que definem o que é mais saliente em um conjunto de dados para a tarefa de treinamento em questão. Eles cumprem sua função aplicando multiplicação às entradas. O treinamento do modelo normalmente começa com pesos que são atribuídos aleatoriamente, mas à medida que o processo avança, os pesos são ajustados conforme o modelo busca chegar a uma saída que se aproxime mais do alvo.
Por exemplo, um modelo de IA para prever preços de casas que é treinado com dados históricos do mercado imobiliário para uma localização-alvo pode incluir pesos para características como o número de quartos e banheiros, se a propriedade é independente, semi-independente, se tem ou não estacionamento, garagem, e assim por diante.
No final, os pesos que o modelo atribui a cada um desses inputs refletem o quanto eles influenciam o valor de uma propriedade, com base no conjunto de dados fornecido.
Conteúdo relacionado
Micron lança novos chips de memória para acompanhar o processamento de IA
[the_ad id="145565"] A Micron anunciou esta semana seus primeiros samples de chip de memória DDR5 1y (1-gamma) e afirma que isso faz parte de sua contribuição para sistemas que…
2025 já nos trouxe a IA mais performática de todos os tempos: O que podemos fazer com essas capacidades supercarregadas (e o que vem a seguir)?
[the_ad id="145565"] Participe das nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder na indústria.…
Flora está desenvolvendo uma ‘tela infinita’ impulsionada por IA para profissionais criativos.
[the_ad id="145565"] Com apenas algumas palavras, modelos de IA podem ser acionados para criar uma história, uma imagem ou até mesmo um curta-metragem. Mas, segundo Weber Wong,…