.

As organizações precisam desenvolver novos conjuntos de habilidades para um local de trabalho que explorará cada vez mais a inteligência artificial (IA), mas primeiro devem descobrir como planejam se beneficiar da tecnologia.
Até 97% dos trabalhadores acreditam que as empresas devem priorizar as habilidades de IA em sua jornada de desenvolvimento de funcionários, de acordo com uma pesquisa divulgada pela Salesforce.com, que entrevistou 11.035 adultos trabalhadores em fevereiro em 11 mercados – como Cingapura, Índia, Austrália, França , e os EUA – em habilidades digitais de IA.
Também: Como usar o ChatGPT: tudo o que você precisa saber
Todos os entrevistados na Índia disseram que as organizações devem priorizar as habilidades de IA em seus planos de desenvolvimento de funcionários, enquanto 98% em Cingapura e 97% na Austrália disseram o mesmo.
Globalmente, 61% dos entrevistados disseram que já estão cientes de como a IA generativa impactaria seu trabalho, incluindo 70% em Cingapura e 53% na Austrália. Este número foi tanto quanto 93% na Índia.
Também: Como usar o ChatGPT para escrever código
No entanto, apenas um em cada 10 de todos os entrevistados atualmente realiza tarefas de trabalho diárias que envolvem IA. Essa proporção atingiu 15% em Cingapura e apenas 7% na Austrália, enquanto cerca de 40% na Índia acreditam que seu trabalho diário atual envolve IA.
Em Cingapura, 57% acreditam que a IA está entre as habilidades digitais mais procuradas atualmente. E enquanto 51% na cidade asiática expressaram preocupação com a substituição de empregos pela IA generativa, 72% disseram que estão entusiasmados com o uso dela. Outros 57% citaram IA ética e habilidades de automação entre as habilidades de crescimento mais rápido e demandadas atualmente.
Cerca de 63% dos entrevistados em Cingapura disseram que sua organização está considerando maneiras de usar IA generativa, em comparação com 46% na Austrália e 91% na Índia. Em todo o mundo, 67% disseram que sua empresa está explorando maneiras de aproveitar a tecnologia.
Descobrir exatamente como eles planejam usar a IA deve ser o primeiro passo – e várias organizações ainda precisam resolver isso, de acordo com Terence Chia, diretor de cluster da indústria digital e grupo de talentos da Infocomm and Media Development Authority (IMDA).
A pandemia global, por exemplo, impulsionou a necessidade de trabalho remoto e teletrabalho, obrigando as empresas a se adaptarem, disse Chia durante um painel de discussão no World Tour Essentials Asia da Salesforce. Agora, com a mudança para a nuvem, os recursos de IA são cada vez mais integrados aos aplicativos, independentemente de as empresas saberem como usá-los ou não.
Também: ChatGPT é a habilidade tecnológica mais procurada na força de trabalho, diz plataforma de aprendizado
Chia disse que é imperativo que as empresas identifiquem os principais problemas, para que possam agir rapidamente e descobrir se possuem a pilha de tecnologia para progredir. Qualquer empresa teria que desenvolver as habilidades e a cultura para apoiar esse progresso.
“Para que nossa força de trabalho esteja pronta para IA, precisamos… saber como usar IA, em um sentido geral, [which] pode exigir habilidades como engenharia imediata [and] nos permitindo fazer as perguntas certas sobre IA”, disse ele.
“Nós [also] precisam ser capazes de aplicar IA a casos de uso setoriais. Isso pode exigir habilidades digitais específicas do setor para áreas como saúde, finanças e manufatura.”
Chia continuou: “Precisamos garantir que alavancamos a IA para complementar o que nosso pessoal pode fazer. Devemos nos concentrar menos no que a IA vai assumir de nós e mais em como ela gerará novas oportunidades para nós”.
Damien Joseph, reitor associado da Nanyang Business School da Nanyang Technological University, também observou o impacto que o rápido surgimento da IA generativa já teve no setor educacional, com alunos usando ferramentas como o ChatGPT sem nenhum treinamento formal.
“Do ponto de vista da educação, podemos resistir à IA ou descobrir quais são as habilidades necessárias para que as pessoas aproveitem todo o seu potencial – seja como ferramenta, colaborador ou membro da equipe”, disse Joseph.
“Para os alunos, estamos vendo a necessidade de sensibilizar o uso ético da IA generativa. Para os profissionais, não são apenas as habilidades técnicas de IA que eles precisam, mas, mais importante, as habilidades gerais que podem ajudá-los a usar a tecnologia de IA no dia a dia. -dia de trabalho.”
Também: Usei o ChatGPT para escrever a mesma rotina nessas dez linguagens de programação obscuras
Algum conhecimento jurídico, por exemplo, será importante no uso da IA generativa para resolver possíveis problemas relacionados a direitos autorais ou direitos de propriedade.
Jospeh disse que, embora seja difícil prever para onde as tecnologias emergentes e de rápida evolução, como a IA, estão indo, existem princípios e conjuntos de habilidades fundamentais para desenvolver uma abordagem.
Em seus esforços para impulsionar a adoção e as habilidades de IA, Cingapura enfatizou a necessidade de construir uma estrutura baseada na confiança e na transparência. Em meio à mania de IA em andamento – e com fornecedores de tecnologia optando por cortar equipes de ética de IA como parte de demissões em toda a empresa – o Strong The One perguntou se os regulamentos eram necessários para garantir que as empresas adotassem práticas éticas de IA.
Chia disse que já existem algumas leis em vigor, como o mandato para organizações em Cingapura nomearem um oficial de proteção de dados. Esse indivíduo tem a tarefa de garantir que a organização cumpra a Lei de Proteção de Dados Pessoais do país.
Também: Como funciona o ChatGPT?
Embora o regulamento se refira a informações pessoais, e não especificamente à IA, ele continua sendo crucial porque os dados são a base da IA, disse ele.
Ele acrescentou que é importante continuar monitorando os desenvolvimentos do mercado, pois a IA generativa pode trazer à tona novos problemas e complexidades relacionadas ao uso de dados. Essa vigilância é necessária para garantir que o ecossistema cresça “responsavelmente”, sem impor restrições desnecessárias ao crescimento e às oportunidades.
Chia disse que Cingapura introduziu várias iniciativas para orientar as empresas no uso da IA, incluindo uma estrutura de teste e um kit de ferramentas, AI Verify, para ajudar as empresas a demonstrar seu uso “objetivo e verificável” da IA.
Sujith Abraham, vice-presidente sênior e gerente geral da Salesforce na Asean, disse que sua empresa possui salvaguardas para garantir o uso ético de IA e dados em seus processos de desenvolvimento de produtos. A Salesforce tem uma equipe global dedicada a estabelecer as verificações de segurança necessárias, disse Abraham.
A Salesforce também fornece recursos para que os funcionários avaliem se uma tarefa ou serviço deve ser executado com base nas diretrizes de ética da empresa. Seu Einstein Vision com inteligência artificial, por exemplo, não pode ser usado para reconhecimento facial.
Abraham acrescentou que a Salesforce tem um conjunto de diretrizes específicas para IA generativa, com base em seus Trusted AI Principles, que se concentram no “desenvolvimento e implementação responsáveis” da IA generativa.
“A tecnologia AI existe há muito tempo, mas a peça que faltava sempre foi a capacidade de usá-la para obter personalização em escala”, disse ele. “É fundamental que esse ritmo acelerado de desenvolvimento seja complementado com as proteções e orientações éticas necessárias”.
Também: IA generativa pode tornar alguns trabalhadores muito mais produtivos, de acordo com este estudo
A Salesforce revelou na semana passada novos recursos de IA para sua linha de produtos, incluindo o Einstein GPT, uma tecnologia de CRM de IA generativa que permite aos usuários criar e ajustar processos de automação usando uma interface de conversação.
Sua plataforma colaborativa Slack também foi integrada a um novo recurso de conversação, chamado Slack GPT. Ele explora a tecnologia de IA generativa para permitir que os usuários criem fluxos de trabalho com o uso de prompts, sem a necessidade de codificação.
.








