News

Temendo vazamentos, Apple restringe seus funcionários de usar ferramentas ChatGPT e AI

.

Uma representação em desenho animado gerada por IA de um chatbot sendo riscado.
Prolongar / Uma representação em desenho animado gerada por IA de um chatbot sendo riscado.

Benj Edwards / Difusão estável

De acordo com fontes internas e documentos da empresa analisados ​​pelo The Wall Street Journal, a Apple restringiu o uso de ferramentas de codificação ChatGPT e IA por seus funcionários, como o GitHub Copilot, por medo de vazar dados confidenciais para fontes externas. Enquanto isso, a Apple também está desenvolvendo tecnologia de IA semelhante.

O ChatGPT é um modelo de linguagem conversacional (LLM) desenvolvido pela OpenAI, apoiada pela Microsoft, capaz de realizar tarefas que vão desde responder a perguntas e redigir ensaios até auxiliar nas tarefas de programação. Atualmente, o modelo ChatGPT AI é executado apenas em servidores OpenAI ou Microsoft e é acessível pela Internet.

A decisão da Apple de limitar o uso de ferramentas externas de IA decorre da preocupação de que dados confidenciais possam ser expostos devido à natureza desses modelos de IA, que enviam dados do usuário de volta aos desenvolvedores para processamento em nuvem e assistência em futuras melhorias no modelo de IA.

A OpenAI enfrentou anteriormente problemas de privacidade com o ChatGPT quando um bug permitia que alguns usuários acessassem informações do histórico de bate-papo de outros usuários. Em resposta às críticas da Itália, a OpenAI implementou uma opção para os usuários desativarem seu histórico de bate-papo, o que também impede que a OpenAI treine futuros modelos de IA usando seus dados de histórico de bate-papo.

Uma tendência contínua

A Apple é conhecida por suas rigorosas medidas de segurança, e sua decisão de banir o uso externo de ferramentas de IA reflete uma tendência crescente entre empresas como Samsung e JPMorgan Chase. O Wall Street Journal relata que a Amazon incentivou seus engenheiros a utilizar suas ferramentas proprietárias de IA (como o CodeWhisperer) para assistência de codificação em vez de ferramentas externas.

Para abordar as preocupações de privacidade entre as empresas, a Microsoft anunciou recentemente planos para lançar uma versão do ChatGPT com foco na privacidade que visaria bancos, provedores de assistência médica e outras grandes organizações com preocupações elevadas sobre vazamentos de dados e conformidade regulatória.

Essa versão comercial mais cara do ChatGPT está configurada para ser executada em servidores dedicados, separados daqueles usados ​​por outras empresas ou usuários individuais, o que deve ajudar a evitar vazamentos inadvertidos de dados e impedir que dados confidenciais sejam usados ​​para treinar o modelo de linguagem AI. Mesmo assim, é duvidoso que um concorrente de alto nível como a Apple confiaria à Microsoft seus dados confidenciais nessas circunstâncias.

Desenvolvimentos internos de IA da Apple

O Wall Street Journal também diz que a Apple está trabalhando em seus próprios LLMs sob a liderança de John Giannandrea, um ex-funcionário do Google que agora é vice-presidente sênior de aprendizado de máquina e estratégia de IA da Apple.

Recentemente, cobrimos um relatório interno do The Information que questionava o conservadorismo da estratégia de IA da Apple em meio a críticas às desvantagens de seu agora aparentemente desatualizado assistente de voz Siri. A Siri, lançada em 2011, inspirou brevemente uma versão em miniatura do hype da IA ​​que estamos vendo agora.

É importante observar que, embora a Apple tenha restringido o uso do ChatGPT para seus funcionários, essa proibição não se estende aos usuários da Apple. Ontem, a OpenAI lançou um cliente ChatGPT oficial para usuários do iPhone nos EUA, que agora podem acessar facilmente a ferramenta em qualquer lugar com uma conta da OpenAI.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo