.

As organizações que desejam aproveitar a inteligência artificial (IA) generativa com mais eficiência devem usar seus próprios dados para treinar sistemas de IA, usando modelos básicos como ponto de partida.
Isso pode fornecer um contexto mais relevante e diminuir as preocupações sobre os riscos potenciais, como imprecisão e violações de propriedade intelectual.
Também: Como usar o ChatGPT: tudo o que você precisa saber
A precisão, em particular, é uma prioridade para uma empresa como a Jiva. O fornecedor de tecnologia agrícola usa IA para alimentar seu aplicativo móvel, Crop Doctor, que identifica doenças de culturas por meio de processamento de imagem e visão computacional e recomenda tratamentos. Ele também utiliza a IA para determinar o valor do crédito dos agricultores que pedem adiantamentos em dinheiro antes de uma colheita e devolve os empréstimos quando a colheita é paga.
Ele usa várias ferramentas de IA e aprendizado de máquina, incluindo Pinecorn, OpenAI e scikit-learn, bem como TensorFlow e Vertex AI do Google. A Jiva tem operações em Cingapura, Indonésia e Índia.
Ele treina seus modelos de IA em milhares de imagens anotadas para cada doença, de acordo com o CTO da Jiva, Tejas Dinkar. A empresa de agrotecnologia coletou centenas de milhares de imagens do solo por meio de suas equipes de campo e agricultores que fazem parte da rede da Jiva e usam seu aplicativo AgriCentral, disponível na Índia.
Também: Como usar o Bing Image Creator (e por que é melhor que o DALL-E 2)
Seus especialistas de campo estão envolvidos na coleta inicial e anotação das imagens, antes de serem passadas para especialistas em agronomia que anotam ainda mais as imagens. Estes são adicionados ao modelo de treinamento usado para identificar doenças de plantas.
Para novas culturas ou culturas com as quais sua equipe de especialistas está menos familiarizada, a Jiva traz outras plataformas, como Plantix, que possuem extensos conjuntos de dados para potencializar o reconhecimento de imagens e informações de diagnóstico.
Fornecer informações precisas é vital porque os dados podem melhorar as colheitas e os meios de subsistência dos agricultores, disse Dinkar em entrevista ao Strong The One. Para garantir ainda mais a veracidade dos dados, IA generativa e modelos de linguagem grande (LLMs) usam apenas conjuntos de dados que a própria Jiva forneceu e examinou.
O chatbot é ainda solicitado, por meio de engenharia imediata, a ignorar quaisquer dados pré-treinados sobre agricultura que possam estar nos LLMs, disse ele.
Também: Este novo sistema de IA pode ler mentes com precisão cerca de metade do tempo
Se não houver dados para extrair, o chatbot retorna uma resposta para dizer que não consegue identificar a doença da plantação. “Você quer garantir que haja dados suficientes. Não queremos fornecer uma resposta vaga”, disse ele.
A Jiva também usa sua biblioteca de imagens para construir em cima de plataformas, como Plantix. Esses modelos fornecem uma boa linha de base, mas, como são desenvolvidos por empresas globais, podem não ser necessariamente treinados adequadamente em dados específicos de uma região ou mercado, disse Dinkar.
Esse problema significou que Jiva teve que criar modelos de treinamento para culturas mais comuns na Indonésia e na Índia, como o milho, disse ele. Eles têm um desempenho melhor do que o Plantix ou outros produtos de prateleira, acrescentou ele, observando a importância da localização nos modelos de IA.
Ajuste os modelos básicos para obter melhores resultados
Usar modelos de dados básicos prontos para uso é uma maneira de começar rapidamente com a IA generativa. No entanto, um desafio comum com essa abordagem é que os dados podem não ser relevantes para o setor em que a empresa opera, de acordo com Olivier Klein, tecnólogo-chefe da Amazon Web Services (AWS) Ásia-Pacífico.
Para ter sucesso em suas implantações de IA generativa, as organizações devem ajustar o modelo de IA com seus próprios dados, disse Klein. As empresas que se esforçarem para fazer isso de maneira adequada avançarão mais rapidamente com sua implementação.
Também: Esses especialistas estão correndo para proteger a IA de hackers
O uso de IA generativa por si só será mais atraente se estiver incorporado à estratégia e plataforma de dados de uma organização, acrescentou.
Dependendo do caso de uso, um desafio comum que as empresas enfrentam é se elas têm dados próprios suficientes para treinar o modelo de IA, disse ele. Ele observou, no entanto, que a quantidade de dados não equivalia necessariamente à qualidade dos dados.
A anotação de dados também é importante, assim como a aplicação de contexto aos modelos de treinamento de IA para que o sistema produza respostas mais específicas para o setor em que o negócio está inserido, disse ele.
Com a anotação de dados, os componentes individuais dos dados de treinamento são rotulados para permitir que as máquinas de IA entendam o que os dados contêm e quais componentes são importantes.
Klein apontou para um equívoco comum de que todos os sistemas de IA são iguais, o que não é o caso. Ele reiterou a necessidade de as organizações garantirem que eles ajustem os modelos de IA com base no caso de uso, bem como em sua vertical.
Os LLMs conduziram muitas conversas entre clientes corporativos sobre o uso de IA generativa em call centers, em particular, disse ele. Há interesse em saber como a tecnologia pode melhorar a experiência dos agentes de atendimento, que podem acessar melhores respostas em tempo real e incorporá-las para melhorar o atendimento ao cliente.
Os operadores de call center podem treinar o modelo de IA usando sua própria base de conhecimento, que pode incluir chatbot e interações com clientes, observou ele.
Adicionar conteúdo específico de domínio a um LLM existente já treinado em conhecimento geral e interação baseada em linguagem normalmente requer significativamente menos dados, de acordo com um relatório da Business Harvard Review. Essa abordagem de ajuste fino envolve o ajuste de alguns parâmetros de um modelo básico e usa apenas centenas ou milhares de documentos, em vez de milhões ou bilhões. Menos tempo de computação também é necessário, em comparação com a construção de um novo modelo fundamental a partir do zero.
Também: IA generativa pode tornar alguns trabalhadores muito mais produtivos, de acordo com este estudo
Existem algumas limitações, no entanto. O relatório observou que essa abordagem ainda pode ser cara e requer conhecimento em ciência de dados. Além disso, nem todos os provedores de LLMs, como o ChatGPT-4 da OpenAi, permitem que os usuários façam o ajuste fino em cima deles.
Explorar seus próprios dados também aborda uma preocupação comum que os clientes têm em meio ao crescente interesse em IA generativa, onde as empresas desejam manter o controle dos dados usados para treinar modelos de IA e manter os dados em seus ambientes, disse Klein.
Essa abordagem garante que não haja “caixa preta” e que a organização saiba exatamente quais dados são usados para alimentar o modelo de IA, observou ele. Também garante a transparência e ajuda a estabelecer a adoção responsável da IA.
Também há esforços contínuos na identificação de políticas necessárias para evitar o efeito caixa preta, disse ele, acrescentando que a AWS trabalha com reguladores e formuladores de políticas para garantir que seus próprios produtos de IA permaneçam em conformidade. A empresa também ajuda os clientes a fazer o mesmo com suas próprias implementações.
Também: As pessoas estão recorrendo ao ChatGPT para solucionar seus problemas técnicos agora
O Amazon Bedrock, por exemplo, pode detectar viés e filtrar conteúdo que viole as diretrizes éticas da IA, disse ele. Bedrock é um conjunto de modelos de fundação que abrange modelos proprietários e industriais, como Amazon Titan, AI21 Labs ‘Jurassic-2, Anthropic’s Claude e Stability AI.
Klein prevê que mais modelos de dados básicos surgirão no futuro, incluindo modelos básicos específicos da vertical, para fornecer às organizações mais opções para treinamento.
Principais problemas a serem resolvidos com IA generativa
Onde há falta de modelos robustos de IA, os humanos podem recuar.
Para problemas de cultivo raros ou altamente específicos, Dinkar observou que a equipe de especialistas em agronomia da Jiva pode trabalhar com pesquisadores locais e equipes de campo para resolvê-los.
A equipe de avaliação de crédito da empresa também sobrepõe os dados gerados pelos sistemas de IA com outras informações, disse ele. Por exemplo, a equipe pode fazer uma visita no local e perceber que uma safra está pronta para colheita recentemente, o que o sistema alimentado por IA pode não ter levado em consideração quando gerou a avaliação de crédito.
“O objetivo não é remover completamente os humanos, mas movê-los para áreas que possam ampliar e [apply] pensamentos adaptativos, que as máquinas ainda não conseguem”, disse Dinkar.
Questionado sobre os desafios que a Jiva encontrou com sua adoção de IA generativa, ele apontou para a falta de uma metodologia de prompt padrão entre diferentes versões e fornecedores de software.
O “verdadeiro omnilinguismo” também está ausente nos LLMs, disse ele, enquanto a alucinação continua sendo uma questão fundamental.
“Vários modelos de linguagem grandes têm suas próprias peculiaridades [and] as mesmas técnicas rápidas não funcionam com elas”, explicou. Por exemplo, por meio de uma engenharia rápida refinada, a Jiva foi capaz de instruir seu bot de agronomia a esclarecer se é incapaz de inferir, a partir do contexto, a cultura à qual o agricultor está se referindo .
Também: Como enganei o ChatGPT para me contar mentiras
No entanto, embora esse prompt específico tenha um bom desempenho no GPT-3.5, não foi tão bom no GPT-4, disse ele. Também não funciona em um LLM diferente.
“A incapacidade de reutilizar prompts entre versões e plataformas exige a criação de conjuntos personalizados de técnicas de prompt para cada um”, disse Dinkar. “À medida que as ferramentas melhoram e as melhores práticas surgem para solicitar vários modelos de linguagem grandes, esperamos que os prompts de plataforma cruzada se tornem uma realidade.”
Melhorias também são necessárias no suporte multilíngue, disse ele, apontando para respostas estranhas que seu chatbot às vezes gera e que estão fora de contexto.
.








