Ciência e Tecnologia

Cuidado com a lacuna de confiança: as preocupações com os dados alertam os clientes sobre a IA generativa

.

ailockgettyimages-1437761046

Oscar Wong/Getty Images

A inteligência artificial generativa (IA) está a ser defendida como essencial para as organizações garantirem a sua relevância no mercado, mas algumas continuam hesitantes em mergulhar devido às preocupações com os dados e a confiança.

Estas questões são especialmente pertinentes para empresas que operam em setores com regras rigorosas de governação de dados e grandes bases de clientes, levando-as a aguardar a adoção de ferramentas generativas de IA, apesar dos seus benefícios alardeados.

Além disso: as empresas precisam de clareza de preços à medida que os serviços generativos de IA chegam ao mercado

A capacidade de gerar relatórios de vendas por meio de um prompt, por exemplo, em vez de ter que mexer manualmente em planilhas, oferece um potencial interessante para ferramentas generativas de IA, como o Einstein Copilot da Salesforce, disse Sarwar Faruque, chefe de operações de desenvolvimento da Jollibee Foods Corporation. A operadora de rede de restaurantes filipina usa Heroku da Salesforce para construir seus aplicativos e Mulesoft como middleware para conectar seus aplicativos, incluindo ERP e sistemas de gerenciamento de pedidos.

A Jollibee tem 15.000 funcionários e opera quase 4.000 lojas em todo o mundo, em 34 países. Suas aplicações rodam predominantemente na nuvem, por isso não mantém data centers próprios, com exceção de uma pequena intranet.

Faruque também vê potencial para a IA ser usada na fabricação, onde pode aumentar a eficiência em seu pipeline de produção e montagem. Por exemplo, a IA pode ajudar a monitorizar a qualidade dos alimentos e prever a procura.

Seu interesse no uso potencial da IA, no entanto, permanece limitado às operações de back-end. Faruque é inflexível em manter a IA generativa longe das interações e operações voltadas para o cliente – por enquanto, pelo menos.

Com a tecnologia ainda em sua infância, ainda há muito que precisa ser compreendido e trabalhado, observou ele.

“Vemos o resultado [and responses] isso gera, mas não entendemos realmente como [it got to the answer]”, disse ele. “Há essa caixa preta… ela precisa ser desmistificada. Quero saber como funciona, como chegou à resposta e se essa resposta é repetível [every time the question is asked].”

Além disso: por que as empresas devem usar a IA para pensar de forma diferente, e não simplesmente para cortar custos

Actualmente, este não é o caso, disse ele, acrescentando que o risco de alucinação também é uma preocupação. E, na ausência de um incidente de segurança, pouco se sabe sobre se existem problemas inerentes de segurança cibernética que precisam de ser resolvidos, observou.

“No momento, há muito marketing [hype]”, disse Faruque, acrescentando que não basta falar simplesmente de “confiança” sem fornecer detalhes sobre o que exatamente isso significa.

Ele pediu aos fornecedores de IA que explicassem como seus grandes modelos de linguagem são formados, quais dados eles consomem e o que exatamente fazem para gerar respostas. “Eles precisam parar de agir como se fosse mágica [when] há um código executando-o e há ciência por trás disso”, disse ele. “Ajude-nos a entendê-lo [because] não gostamos de adotar uma tecnologia sobre a qual não temos um conhecimento sólido.”

Ele sublinhou a necessidade de responsabilização e transparência, juntamente com garantias de que os dados dos clientes utilizados para treinar modelos de IA não serão tornados públicos. Isto é fundamental, especialmente para organizações que precisam cumprir as regulamentações de privacidade de dados em sua jurisdição local.

Além disso: Medindo a confiança: por que todo modelo de IA precisa de uma pontuação FICO

Até que essas questões sejam resolvidas, ele disse que não está disposto a colocar em risco os dados de seus próprios clientes.

A confiança também é algo que o Ministério do Comércio e Indústria (MTI) de Singapura leva a sério, especificamente em termos de privacidade e segurança de dados. Dez agências governamentais estão subordinadas ao ministério, incluindo a EDB e o Conselho de Turismo de Singapura.

Em particular, os dados do ministério devem ser retidos em Singapura, e isto está a revelar-se um grande obstáculo para garantir a segurança e a governação dos dados, disse Sharon Ng, CIO da família ministerial do MTI. Isso significa que qualquer IA e modelos de linguagem de grande porte usados ​​devem ser hospedados em seu próprio ambiente, mesmo aqueles administrados por fornecedores dos EUA, como a plataforma Einstein Copilot da Salesforce.

Tal como Faruque, Ng também sublinhou a necessidade de transparência, em particular os detalhes de como funciona a camada de segurança, incluindo que tipo de encriptação é utilizada e se os dados são retidos, observou ela.

Além disso: como a IA generativa confiável pode melhorar a experiência do cliente conectado

A sua equipa está atualmente a explorar como as ferramentas generativas de IA, incluindo as da Salesforce, podem beneficiar o ministério, que permanece aberto à utilização de diferentes modelos de IA e de grandes linguagens disponíveis no mercado. Isso seria menos dispendioso do que construir seus próprios modelos e reduziria o tempo de lançamento no mercado, disse ela.

A utilização de qualquer modelo de IA, no entanto, ainda estaria sujeita a considerações de confiança e segurança, observou ela. Atualmente, a MTI está realizando pilotos generativos de IA que visam melhorar a eficiência operacional e facilitar as tarefas de trabalho em suas agências.

Para a empresa de telecomunicações M1 de Cingapura, oferecer um melhor atendimento ao cliente é o KPI claro para IA generativa. Porém, assim como a MTI e a Jollibee, a conformidade e a confiança dos dados são críticas, disse Jan Morgenthal, diretor digital da M1. A empresa de telecomunicações está atualmente a executar provas de conceitos para avaliar como a IA generativa pode melhorar as interações que o seu chatbot tem com os clientes e se pode suportar idiomas adicionais, além do inglês.

Isso significa trabalhar com os fornecedores para descobrir os parâmetros e entender onde a grande linguagem e os modelos de IA são implantados, disse Morgenthal. Semelhante ao MTI e ao Jollibee, o M1 também precisa cumprir regulamentações que exigem que alguns de seus dados, incluindo aqueles hospedados em plataformas de nuvem, residam em seu mercado local.

Além disso: à frente da IA, esta outra onda tecnológica está se aproximando rapidamente

Isto exige o treinamento de modelos de IA a serem realizados no ambiente de rede do M1, disse ele.

A empresa de telecomunicações de Singapura também precisa ter cuidado com os dados usados ​​para treinar os modelos e respostas geradas, que devem ser testados e validados, disse ele. Eles não só precisam ser verificados em relação às diretrizes estipuladas pelo fornecedor, como o Trust Layer da Salesforce, mas também em relação às proteções que a empresa-mãe da M1, Keppel, possui.

Abordando a lacuna de confiança na IA generativa

Tais esforços serão críticos num contexto de queda da confiança na utilização da IA.

Tanto as organizações como os consumidores estão agora menos abertos à utilização da IA ​​do que antes, de acordo com um inquérito da Salesforce divulgado no mês passado. Cerca de 73% dos compradores empresariais e 51% dos consumidores são receptivos à tecnologia utilizada para melhorar as suas experiências, uma queda em relação aos 82% e 65%, respetivamente, em 2022.

E embora 76% dos clientes confiem que as empresas farão afirmações honestas sobre os seus produtos e serviços, um número inferior de 57% confia que elas utilizem a IA de forma ética. Outros 68% acreditam que os avanços da IA ​​tornaram mais importante que as empresas sejam confiáveis.

A lacuna de confiança é um problema e uma preocupação significativa para as organizações, disse Tim Dillon, fundador e diretor da Tech Research Asia, apontando para a reação negativa que o Zoom experimentou quando alterou seus Termos de Serviço, dando-lhe o direito de usar vídeo, áudio de seus usuários. e dados de bate-papo para treinar seus modelos de IA.

Além disso: IA, confiança e segurança de dados são questões fundamentais para empresas financeiras e seus clientes

Os fornecedores de IA generativa gostariam de evitar um cenário semelhante, disse Dillon em entrevista à Strong The One, à margem do Dreamforce 2023, realizado em São Francisco esta semana. Os intervenientes no mercado, como a Salesforce e a Microsoft, envidaram esforços para colmatar a lacuna de confiança, o que, segundo ele, foi um passo positivo.

Além de abordar questões de confiança, as organizações que planeiam adotar a IA generativa também devem considerar a implementação da gestão da mudança, observou Phil Hassey, CEO e fundador da empresa de investigação CapioIT.

Esta é uma área que muitas vezes fica de fora da discussão, disse Hassey à Strong The One. As organizações têm de descobrir os custos envolvidos e os conjuntos de competências que precisam de adquirir e as funções que têm de ser requalificadas, como resultado da implementação da IA ​​generativa.

Uma estratégia adequada de gestão de mudanças é fundamental para garantir uma transição tranquila e reter talentos, disse ele.

Com sede em Cingapura, Eileen Yu reportou para Strong The One no Dreamforce 2023 em São Francisco, a convite da Salesforce.com.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo