technology

A Microsoft permite que as empresas liberem o ChatGPT de seus próprios dados • Strong The One

.

A Microsoft quer tornar mais fácil para as empresas alimentar seus dados proprietários, juntamente com as consultas do usuário, no GPT-4 da OpenAI ou ChatGPT no Azure e ver os resultados.

Essa funcionalidade, disponível por meio do serviço Azure OpenAI, elimina a necessidade de treinar ou ajustar seus próprios modelos de IA generativa, disse Andy Beatman, gerente sênior de marketing de produtos da Azure AI, observou esta semana que esse era um “recurso altamente solicitado pelo cliente”.

Só podemos supor que ele quer dizer altamente solicitado pelos clientes – não os executivos da Microsoft que continuam a divulgar esse hype de IA.

Dizem-nos que o sistema funciona basicamente assim: um usuário dispara uma consulta ao Azure, a nuvem da Microsoft descobre quais dados corporativos internos são necessários para concluir essa solicitação, a pergunta e os dados recuperados são combinados em uma nova consulta que é passada ao modelo OpenAI escolhido, o modelo prevê uma resposta e esse resultado é enviado de volta ao usuário.

Isso é supostamente útil.

“Azure OpenAI em seus dados, junto com a Pesquisa Cognitiva do Azure, determina quais dados recuperar da fonte de dados designada com base na entrada do usuário e no histórico de conversas fornecido”, Microsoft explicado. “Esses dados são então aumentados e reenviados como um prompt para o modelo OpenAI, com as informações recuperadas sendo anexadas ao prompt original”.

Voltando o foco para dados proprietários

A Microsoft tem afundado mais de US$ 10 bilhões na OpenAI e está integrando rapidamente os modelos e ferramentas de IA da novata em produtos e serviços em todo o seu amplo portfólio.

Não há dúvida de que há uma pressão por formas de criar modelos sob medida – aqueles que vão além do treinamento básico e são personalizados para aplicativos e organizações individuais. Dessa forma, quando uma consulta chega, uma resposta específica pode ser gerada em vez de uma genérica.

Esse abordagem tem sido falado por vários anos. Nos últimos meses, à medida que o ritmo da inovação generativa da IA ​​acelerou, os fornecedores começaram a atender a chamada. Nvidia no final do ano passado introduzido NeMo – uma estrutura dentro de sua plataforma AI Enterprise maior, que ajuda as organizações a aumentar seus LLMs com dados proprietários.

“Quando trabalhamos com empresas corporativas, muitas delas estão interessadas em criar modelos para seus próprios propósitos com seus próprios dados”, Manuvir Das, vice-presidente de computação corporativa da Nvidia, contado jornalistas durante a preparação para o show GTC 2023 da gigante da GPU em março.

Dois meses depois, a Nvidia unido com a ServiceNow para permitir que as empresas que usam a plataforma de nuvem da ServiceNow e as ferramentas de IA da Nvidia treinem modelos de IA com base em suas próprias informações.

a vez de Redmond

Agora vem a Microsoft. “Com os recursos avançados de IA de conversação do ChatGPT e GPT-4, você pode simplificar a comunicação, aprimorar o atendimento ao cliente e aumentar a produtividade em toda a sua organização”, escreveu Beatman. “Esses modelos não apenas aproveitam seu conhecimento pré-treinado, mas também acessam fontes de dados específicas, garantindo que as respostas sejam baseadas nas informações mais recentes disponíveis.”

Por meio desses recursos mais recentes no Azure OpenAI Service, as empresas podem simplificar processos como entrada de documentos, indexação, desenvolvimento de software e procedimentos de RH para, de alguma forma, aprimorar solicitações de dados de autoatendimento, tarefas de atendimento ao cliente, criação de receita e interações com clientes e outras empresas.

O serviço pode se conectar aos dados corporativos de um cliente de qualquer fonte e local – seja armazenado localmente, na nuvem ou na borda – e inclui ferramentas para processar e organizar os dados para obter insights que podem ser usados ​​em modelos de IA. Ele também pode se integrar aos sistemas existentes de uma empresa por meio de uma API e um kit de desenvolvimento de software (SDK) da Microsoft.

Além disso, inclui um aplicativo de amostra para acelerar o tempo de implementação do serviço.

O serviço Azure OpenAI em seus dados permite conexões com fontes da Microsoft como índice de pesquisa cognitiva do Azure para integração com modelos OpenAI, contêiner de armazenamento de blog do Azure e arquivos locais no portal Azzure AI, com os dados ingeridos no índice de pesquisa cognitiva do Azure, estamos contado.

As organizações precisarão de um aplicativo de serviço Azure OpenAI aprovado e modelos GPT-3.5-Turbo ou GPT-4 implantados. Eles podem usar o Azure AI Studio para conectar a fonte de dados ao serviço.

“Depois que sua fonte de dados estiver conectada, você pode começar a fazer perguntas e conversar com os modelos OpenAI por meio do Azure AI Studio”, escreveu Beatman. “Isso permite que você obtenha informações valiosas e tome decisões de negócios informadas.”

Algumas coisas para manter em mente

Existem algumas ressalvas. Os usuários não devem fazer perguntas longas, em vez disso, dividi-las em várias perguntas. O limite máximo para o número de tokens por resposta do modelo é 1.500 – incluindo a pergunta do usuário, quaisquer mensagens do sistema, documentos de pesquisa recuperados (conhecidos como “pedaços”), além de prompts internos e a resposta.

Eles também devem limitar as respostas aos seus dados, o que “encoraja o modelo a responder usando apenas seus dados e é selecionado por padrão”, escreveu a Microsoft.

O serviço também pode desencadear uma preocupação importante: vazamento de dados corporativos para o domínio público usando-os com os modelos de IA.

O ChatGPT, que foi introduzido no Azure OpenAI Service em maio, mantém por padrãStrong The Ones de todas as conversas, incluindo consultas e respostas de IA. Lembre-se de que, ao alimentá-lo com informações confidenciais internas – os bandidos adoram aspirar credenciais para contas ChatGPT e, portanto, acesso a qualquer histórico de bate-papo.

Dmitry Shestakov, chefe de inteligência de ameaças da empresa de infosec Group-IB, avisou que “muitas empresas estão integrando o ChatGPT em seu fluxo operacional. Os funcionários inserem correspondências classificadas ou usam o bot para otimizar o código proprietário”. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo