Ciência e Tecnologia

O Glossário da AI Strong The One

.

A inteligência artificial é um mundo profundo e complicado. Os cientistas que trabalham nesse campo geralmente dependem de jargões e linguagem para explicar o que estão trabalhando. Como resultado, frequentemente precisamos usar esses termos técnicos em nossa cobertura da indústria de inteligência artificial. É por isso que pensamos que seria útil reunir um glossário com definições de algumas das palavras e frases mais importantes que usamos em nossos artigos.

Atualizaremos regularmente esse glossário para adicionar novas entradas, à medida que os pesquisadores descobrem continuamente novos métodos para empurrar a fronteira da inteligência artificial e identificar riscos emergentes de segurança.


Um agente de IA refere -se a uma ferramenta que utiliza as tecnologias de IA para executar uma série de tarefas em seu nome – além do que um chatbot de IA mais básico poderia fazer – como despesas com registro, ingressos para reservar ou uma mesa em um restaurante ou até escrever e manter código. No entanto, como explicamos antes, há muitas peças em movimento neste espaço emergente, para que pessoas diferentes possam significar coisas diferentes quando se referem a um agente de IA. A infraestrutura também ainda está sendo construída para cumprir os recursos previstos. Mas o conceito básico implica um sistema autônomo que pode atrair vários sistemas de IA para realizar tarefas de várias etapas.

Dada uma pergunta simples, um cérebro humano pode responder sem sequer pensar muito sobre isso – coisas como “Qual animal é mais alto entre uma girafa e um gato?” Mas, em muitos casos, você geralmente precisa de uma caneta e papel para obter a resposta certa, porque existem etapas intermediárias. Por exemplo, se um agricultor tiver galinhas e vacas, e juntos eles têm 40 cabeças e 120 pernas, talvez seja necessário escrever uma equação simples para encontrar a resposta (20 galinhas e 20 vacas).

Em um contexto de IA, o raciocínio da cadeia de pensamentos para modelos de idiomas grandes significa dividir um problema em etapas intermediárias menores para melhorar a qualidade do resultado final. Geralmente leva mais tempo para obter uma resposta, mas é mais provável que a resposta esteja certa, especialmente em um contexto de lógica ou codificação. Os chamados modelos de raciocínio são desenvolvidos a partir de grandes modelos de idiomas tradicionais e otimizados para o pensamento da cadeia de pensamentos, graças ao aprendizado de reforço.

(Ver: Modelo de linguagem grande)

Um subconjunto de aprendizado de máquina auto-improvisado, no qual os algoritmos de IA são projetados com uma estrutura de rede neural artificial e de várias camadas (RNA). Isso lhes permite fazer correlações mais complexas em comparação com sistemas mais simples baseados em aprendizado de máquina, como modelos lineares ou árvores de decisão. A estrutura dos algoritmos de aprendizado profundo se inspira nas vias interconectadas dos neurônios no cérebro humano.

Os AIs de aprendizado profundo são capazes de identificar características importantes nos próprios dados, em vez de exigir que os engenheiros humanos definam esses recursos. A estrutura também suporta algoritmos que podem aprender com erros e, por meio de um processo de repetição e ajuste, melhoram suas próprias saídas. No entanto, os sistemas de aprendizado profundo exigem muitos pontos de dados para produzir bons resultados (milhões ou mais). Normalmente, também leva mais tempo para treinar aprendizado profundo versus algoritmos de aprendizado de máquina mais simples – portanto, os custos de desenvolvimento tendem a ser mais altos.

(Ver: Rede Neural)

Isso significa treinamento adicional de um modelo de IA destinado a otimizar o desempenho para uma tarefa ou área mais específica do que anteriormente um ponto focal de seu treinamento-normalmente alimentando-se com novos dados especializados (ou seja, orientados a tarefas).

Muitas startups de IA estão tomando grandes modelos de idiomas como ponto de partida para construir um produto comercial, mas disputando a utilidade para um setor ou tarefa-alvo, complementando os ciclos de treinamento anteriores com ajuste fino com base em seu próprio conhecimento e conhecimento específico do domínio.

(Ver: Modelo de linguagem grande (LLM))

Modelos de idiomas grandes, ou LLMs, são os modelos de IA usados ​​por assistentes populares de IA, como ChatGPT, Claude, Gemini do Google, a AI Llama da Meta, a Microsoft Copilot ou o LE Chat de Mistral. Ao conversar com um assistente de IA, você interage com um grande modelo de idioma que processa sua solicitação diretamente ou com a ajuda de diferentes ferramentas disponíveis, como navegação na Web ou intérpretes de código.

Assistentes de IA e LLMs podem ter nomes diferentes. Por exemplo, o GPT é o modelo de idioma grande do OpenAI e o ChatGPT é o produto assistente da IA.

LLMs são redes neurais profundas feitas de bilhões de parâmetros numéricos (ou pesos, veja abaixo) que aprendam as relações entre palavras e frases e criam uma representação da linguagem, uma espécie de mapa multidimensional das palavras.

Aqueles são criados a partir da codificação dos padrões que encontram em bilhões de livros, artigos e transcrições. Quando você solicita um LLM, o modelo gera o padrão mais provável que se encaixa no prompt. Em seguida, avalia a próxima palavra mais provável após a última com base no que foi dito antes. Repita, repita e repita.

(Ver: Rede Neural)

A rede neural refere-se à estrutura algorítmica de várias camadas que sustenta o aprendizado profundo-e, de maneira mais ampla, todo o boom em ferramentas generativas de IA após o surgimento de grandes modelos de linguagem.

Embora a idéia de se inspirar nas vias densamente interconectadas do cérebro humano como uma estrutura de design para algoritmos de processamento de dados remontasse até a década de 1940, foi o aumento muito mais recente do hardware de processamento gráfico (GPUs) – através da indústria de videogames – que realmente desbloqueou o poder da teoria. Esses chips se mostraram adequados para o treinamento de algoritmos com muito mais camadas do que o possível em épocas anteriores-permitindo que os sistemas de IA baseados em rede neural obtenham desempenho muito melhor em muitos domínios, seja para reconhecimento de voz, navegação autônoma ou descoberta de medicamentos.

(Ver: Modelo de linguagem grande (LLM))

Os pesos são essenciais para o treinamento de IA, pois determinam quanta importância (ou peso) é dada a diferentes recursos (ou variáveis ​​de entrada) nos dados usados ​​para treinar o sistema – moldando assim a saída do modelo de IA.

Em outras palavras, os pesos são parâmetros numéricos que definem o que é mais saliente em um conjunto de dados para a tarefa de treinamento fornecida. Eles alcançam sua função aplicando multiplicação às entradas. O treinamento do modelo normalmente começa com pesos que são atribuídos aleatoriamente, mas à medida que o processo se desenrola, os pesos se ajustam à medida que o modelo procura chegar a uma saída que corresponda mais de perto ao alvo.

Por exemplo, um modelo de IA para prever os preços das casas que é treinado em dados históricos imobiliários para um local de destino pode incluir pesos para recursos como o número de quartos e banheiros, seja uma propriedade isolada, semi-identificada, se tiver ou não ter ou não estacionar, uma garagem e assim por diante.

Por fim, os pesos que o modelo se conecta a cada uma dessas entradas é um reflexo de quanto eles influenciam o valor de uma propriedade, com base no conjunto de dados fornecido.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo