Bolt42

A inteligência artificial é um mundo profundo e complicado. Os cientistas que atuam nessa área frequentemente dependem de jargão e termos técnicos para explicar o que estão fazendo. Como resultado, muitas vezes temos que usar esses termos técnicos em nossa cobertura da indústria de inteligência artificial. Por isso, achamos que seria útil compilar um glossário com definições de algumas das palavras e expressões mais importantes que usamos em nossos artigos.

Atualizaremos regularmente este glossário para adicionar novas entradas à medida que os pesquisadores continuam a descobrir métodos inovadores para avançar na inteligência artificial, ao mesmo tempo que identificam riscos emergentes à segurança.


Inteligência geral artificial, ou AGI, é um termo nebuloso. Porém, geralmente refere-se à IA que é mais capaz do que a média humana em muitas, senão na maioria, das tarefas. O CEO da OpenAI, Sam Altman, recentemente descreveu AGI como o “equivalente a um humano mediano que você poderia contratar como colega de trabalho.” Enquanto isso, a carta da OpenAI define AGI como “sistemas altamente autônomos que superam humanos na maioria dos trabalhos economicamente valiosos.” A compreensão do Google DeepMind difere levemente dessas duas definições; o laboratório vê AGI como “IA que é pelo menos tão capaz quanto os humanos na maioria das tarefas cognitivas.” Confuso? Não se preocupe — especialistas na vanguarda da pesquisa em IA também estão.

Um agente de IA refere-se a uma ferramenta que usa tecnologias de IA para realizar uma série de tarefas em seu nome — além do que um chatbot de IA mais básico poderia fazer — como processar despesas, reservar passagens ou uma mesa em um restaurante, ou até mesmo escrever e manter código. No entanto, como já explicamos antes, há muitas peças em movimento nesse espaço emergente, então “agente de IA” pode significar coisas diferentes para pessoas diferentes. A infraestrutura também ainda está sendo criada para entregar suas capacidades previstas. Mas o conceito básico implica um sistema autônomo que pode recorrer a múltiplos sistemas de IA para realizar tarefas multichave.

Diante de uma pergunta simples, um cérebro humano pode responder sem pensar muito — coisas como “qual animal é mais alto, uma girafa ou um gato?” Mas, em muitos casos, você muitas vezes precisa de papel e caneta para chegar à resposta correta, porque há etapas intermediárias. Por exemplo, se um fazendeiro tem galinhas e vacas, e juntos eles têm 40 cabeças e 120 patas, você pode precisar escrever uma equação simples para chegar à resposta (20 galinhas e 20 vacas).

No contexto da IA, o raciocínio em cadeia para grandes modelos de linguagem significa dividir um problema em etapas menores e intermediárias para melhorar a qualidade do resultado final. Geralmente, leva mais tempo para obter uma resposta, mas a resposta tem mais chances de estar correta, especialmente em um contexto de lógica ou codificação. Modelos de raciocínio são desenvolvidos a partir de modelos de linguagem de grande escala e otimizados para o pensamento em cadeia graças ao aprendizado por reforço.

(Veja: Modelo de linguagem de grande escala)

Um subconjunto de aprendizado de máquina autorregulável em que algoritmos de IA são projetados com uma estrutura de rede neural artificial (ANN) em várias camadas. Isso permite que eles façam correlações mais complexas em comparação com sistemas de aprendizado de máquina mais simples, como modelos lineares ou árvores de decisão. A estrutura dos algoritmos de aprendizado profundo se inspira nos caminhos interconectados dos neurônios no cérebro humano.

Modelos de IA de aprendizado profundo são capazes de identificar características importantes nos dados por si mesmos, em vez de exigir que engenheiros humanos definam essas características. A estrutura também suporta algoritmos que podem aprender com erros e, por meio de um processo de repetição e ajuste, melhorar seus próprios resultados. No entanto, sistemas de aprendizado profundo exigem muitos pontos de dados para obter bons resultados (milhões ou mais). Eles também costumam demorar mais para treinar em comparação com algoritmos de aprendizado de máquina mais simples — portanto, os custos de desenvolvimento tendem a ser mais altos.

(Veja: Rede neural)

A difusão é a tecnologia que está no coração de muitos modelos de IA que geram arte, música e texto. Inspirados pela física, sistemas de difusão “destruem” lentamente a estrutura dos dados — por exemplo, fotos, músicas, e assim por diante — adicionando ruído até que não reste nada. Na física, a difusão é espontânea e irreversível — açúcar difuso no café não pode ser restaurado à forma de cubo. Mas os sistemas de difusão em IA buscam aprender um tipo de processo de “difusão reversa” para restaurar os dados destruídos, ganhando a capacidade de recuperar os dados do ruído.

A destilação é uma técnica usada para extrair conhecimento de um grande modelo de IA com um modelo de ‘professor-aluno’. Os desenvolvedores enviam solicitações a um modelo professor e registram as saídas. As respostas são às vezes comparadas com um conjunto de dados para verificar sua precisão. Essas saídas são então usadas para treinar o modelo aluno, que é ensinado a aproximar o comportamento do professor.

A destilação pode ser usada para criar um modelo menor e mais eficiente com base em um modelo maior, com uma perda de destilação mínima. É provável que tenha sido assim que a OpenAI desenvolveu o GPT-4 Turbo, uma versão mais rápida do GPT-4.

Embora todas as empresas de IA usem a destilação internamente, ela pode também ter sido utilizada por algumas empresas de IA para alcançar modelos de ponta. A destilação de um concorrente geralmente viola os termos de serviço de APIs de IA e assistentes de chat.

Isso refere-se ao treinamento adicional de um modelo de IA para otimizar o desempenho para uma tarefa ou área mais específica do que era o foco anterior de seu treinamento — normalmente alimentando novos dados especializados (ou seja, orientados para a tarefa).

Muitas startups de IA estão pegando modelos de linguagem de grande escala como ponto de partida para construir um produto comercial, mas estão competindo para aumentar a utilidade para um setor ou tarefa alvo, complementando ciclos de treinamento anteriores com ajustes baseados em seu próprio conhecimento e expertise específicos do domínio.

(Veja: Modelo de linguagem de grande escala [LLM])

Uma GAN, ou Rede Generativa Adversarial, é um tipo de estrutura de aprendizado de máquina que sustenta alguns desenvolvimentos importantes em IA generativa quando se trata de produzir dados realistas — incluindo (mas não apenas) ferramentas de deepfake. As GANs envolvem o uso de um par de redes neurais, uma das quais se baseia em seus dados de treinamento para gerar uma saída que é passada para o outro modelo para avaliação. Este segundo modelo discriminação, portanto, desempenha o papel de classificador na saída do gerador — permitindo que ele melhore ao longo do tempo.

A estrutura de GAN é configurada como uma competição (daí “adversarial”) — com os dois modelos essencialmente programados para tentar superar um ao outro: o gerador tenta passar sua saída pela discriminação, enquanto o discriminador trabalha para identificar dados gerados artificialmente. Esse concurso estruturado pode otimizar as saídas da IA para serem mais realistas sem a necessidade de intervenção humana adicional. Embora as GANs funcionem melhor para aplicações mais específicas (como produzir fotos ou vídeos realistas), ao invés de IA de propósito geral.

Alucinação é o termo preferido da indústria de IA para descrever quando modelos de IA inventam coisas — literalmente gerando informações que estão incorretas. Obviamente, isso é um grande problema para a qualidade da IA.

Alucinações produzem saídas de GenAI que podem ser enganosas e poderiam levar a riscos na vida real — com consequências potencialmente perigosas (pense em uma consulta de saúde que retorna um conselho médico prejudicial). É por isso que a maioria das pequenas letras das ferramentas de GenAI agora adverte os usuários a verificar as respostas geradas pela IA, embora tais avisos geralmente sejam muito menos proeminentes do que as informações que as ferramentas fornecem com o toque de um botão.

O problema das IAs fabricando informações é considerado uma consequência de lacunas nos dados de treinamento. Especialmente para GenAI de propósito geral — também conhecido como modelos de fundação — isso parece difícil de resolver. Simplesmente não existem dados suficientes para treinar modelos de IA para resolver todas as perguntas que poderíamos fazer. Resumindo: ainda não inventamos Deus.

As alucinações estão contribuindo para um impulso em direção a modelos de IA cada vez mais especializados e/ou verticais — ou seja, IAs específicas de domínio que exigem expertise mais estreita – como uma forma de reduzir a probabilidade de lacunas de conhecimento e minimizar os riscos de desinformação.

Inferência é o processo de execução de um modelo de IA. Trata-se de liberar um modelo para fazer previsões ou tirar conclusões a partir de dados previamente vistos. Para ser claro, a inferência não pode acontecer sem treinamento; um modelo deve aprender padrões em um conjunto de dados antes que ele possa extrapolar de forma eficaz a partir desses dados de treinamento.

Muitos tipos de hardware podem realizar inferência, variando de processadores de smartphones a GPUs robustas e aceleradores de IA projetados sob medida. Mas nem todos eles podem executar modelos igualmente bem. Modelos muito grandes levariam uma eternidade para fazer previsões em, por exemplo, um laptop em comparação com um servidor em nuvem com chips de IA de alto desempenho.

[Veja: Treinamento]

Modelos de linguagem de grande escala, ou LLMs, são os modelos de IA usados por assistentes de IA populares, como ChatGPT, Claude, Gemini do Google, Llama da Meta, Copilot da Microsoft ou Le Chat da Mistral. Quando você conversa com um assistente de IA, você interage com um modelo de linguagem de grande escala que processa seu pedido diretamente ou com a ajuda de diferentes ferramentas disponíveis, como navegação na web ou interpretadores de código.

Assistentes de IA e LLMs podem ter nomes diferentes. Por exemplo, GPT é o modelo de linguagem de grande escala da OpenAI e ChatGPT é o produto assistente de IA.

LLMs são redes neurais profundas compostas por bilhões de parâmetros numéricos (ou pesos, veja abaixo) que aprendem as relações entre palavras e frases e criam uma representação da linguagem, uma espécie de mapa multidimensional de palavras.

Esses modelos são criados a partir da codificação dos padrões que encontram em bilhões de livros, artigos e transcrições. Quando você solicita a um LLM, o modelo gera o padrão mais provável que se encaixa na solicitação. Ele então avalia a palavra mais provável a seguir após a última com base no que foi dito antes. Repetição, repetição e repetição.

(Veja: Rede neural)

Uma rede neural refere-se à estrutura algorítmica em várias camadas que sustenta o aprendizado profundo — e, de forma mais ampla, todo o crescimento das ferramentas de IA generativa após o surgimento dos modelos de linguagem de grande escala. Embora a ideia de se inspirar nos caminhos densamente interconectados do cérebro humano como uma estrutura de design para algoritmos de processamento de dados datem desde a década de 1940, foi a ascensão mais recente do hardware de processamento gráfico (GPUs) — através da indústria de videogames — que realmente desbloqueou o poder dessa teoria. Esses chips se mostraram bem adequados para treinar algoritmos com muitas mais camadas do que era possível em épocas anteriores — permitindo que sistemas de IA baseados em redes neurais alcançassem desempenho muito melhor em muitos domínios, incluindo reconhecimento de voz, navegação autônoma e descoberta de medicamentos.

(Veja: Modelo de linguagem de grande escala [LLM])

Desenvolver AIs de aprendizado de máquina envolve um processo conhecido como treinamento. Em termos simples, isso se refere aos dados sendo alimentados para que o modelo possa aprender a partir de padrões e gerar saídas úteis.

As coisas podem ficar um pouco filosóficas neste ponto na pilha de IA — pois, antes do treinamento, a estrutura matemática que é utilizada como ponto de partida para o desenvolvimento de um sistema de aprendizado é apenas um monte de camadas e números aleatórios. É somente através do treinamento que o modelo de IA realmente toma forma. Essencialmente, é o processo pelo qual o sistema responde a características nos dados que permite que ele adapte saídas em direção a um objetivo desejado — seja identificar imagens de gatos ou produzir um haiku sob demanda.

É importante notar que nem toda IA requer treinamento. AIs baseadas em regras que são programadas para seguir instruções previamente definidas manualmente — por exemplo, como chatbots lineares — não precisam passar por treinamento. No entanto, tais sistemas de IA são provavelmente mais restritos em comparação com sistemas de auto-aprendizagem (bem treinados).

Ainda assim, o treinamento pode ser caro porque requer muitos insumos — e, normalmente, os volumes de insumos exigidos para tais modelos vêm aumentando.

Abordagens híbridas podem às vezes ser usadas para acelerar o desenvolvimento do modelo e ajudar a gerenciar custos. Como fazer um ajuste dirigido por dados de uma IA baseada em regras — o que significa que o desenvolvimento requer menos dados, computação, energia e complexidade algorítmica do que se o desenvolvedor começasse a construir do zero.

[Veja: Inferência]

Uma técnica onde um modelo de IA previamente treinado é usado como ponto de partida para desenvolver um novo modelo para uma tarefa diferente, mas tipicamente relacionada — permitindo que o conhecimento adquirido em ciclos de treinamento anteriores seja reaplicado.

O aprendizado por transferência pode gerar economias de eficiência ao encurtar o desenvolvimento do modelo. Ele também pode ser útil quando os dados para a tarefa para a qual o modelo está sendo desenvolvido são um pouco limitados. Mas é importante notar que a abordagem tem limitações. Modelos que dependem do aprendizado por transferência para ganhar capacidades generalizadas provavelmente precisarão ser treinados com dados adicionais para se sair bem em seu domínio de foco.

(Veja: Ajuste fino)

Pesos são fundamentais para o treinamento de IA, pois determinam quanta importância (ou peso) é dada a diferentes características (ou variáveis de entrada) nos dados usados para treinar o sistema — moldando assim a saída do modelo de IA.

Em outras palavras, pesos são parâmetros numéricos que definem o que é mais saliente em um conjunto de dados para a tarefa de treinamento dada. Eles cumprem sua função aplicando multiplicação às entradas. O treinamento do modelo geralmente começa com pesos que são atribuídos aleatoriamente, mas à medida que o processo avança, os pesos se ajustam à medida que o modelo busca chegar a uma saída que se aproxime mais do alvo.

Por exemplo, um modelo de IA para prever preços de imóveis que é treinado em dados histórico de imóveis em uma localização alvo pode incluir pesos para características como o número de quartos e banheiros, se uma propriedade é isolada ou semi-isolada, se tem estacionamento, uma garagem e assim por diante.

Em última análise, os pesos que o modelo atribui a cada uma dessas entradas refletem o quanto elas influenciam o valor de uma propriedade, com base no conjunto de dados fornecido.


    2 × 2 =

    Bolt42