.

Benj Edwards / Difusão estável
De acordo com fontes internas e documentos da empresa analisados pelo The Wall Street Journal, a Apple restringiu o uso de ferramentas de codificação ChatGPT e IA por seus funcionários, como o GitHub Copilot, por medo de vazar dados confidenciais para fontes externas. Enquanto isso, a Apple também está desenvolvendo tecnologia de IA semelhante.
O ChatGPT é um modelo de linguagem conversacional (LLM) desenvolvido pela OpenAI, apoiada pela Microsoft, capaz de realizar tarefas que vão desde responder a perguntas e redigir ensaios até auxiliar nas tarefas de programação. Atualmente, o modelo ChatGPT AI é executado apenas em servidores OpenAI ou Microsoft e é acessível pela Internet.
A decisão da Apple de limitar o uso de ferramentas externas de IA decorre da preocupação de que dados confidenciais possam ser expostos devido à natureza desses modelos de IA, que enviam dados do usuário de volta aos desenvolvedores para processamento em nuvem e assistência em futuras melhorias no modelo de IA.
A OpenAI enfrentou anteriormente problemas de privacidade com o ChatGPT quando um bug permitia que alguns usuários acessassem informações do histórico de bate-papo de outros usuários. Em resposta às críticas da Itália, a OpenAI implementou uma opção para os usuários desativarem seu histórico de bate-papo, o que também impede que a OpenAI treine futuros modelos de IA usando seus dados de histórico de bate-papo.
Uma tendência contínua
A Apple é conhecida por suas rigorosas medidas de segurança, e sua decisão de banir o uso externo de ferramentas de IA reflete uma tendência crescente entre empresas como Samsung e JPMorgan Chase. O Wall Street Journal relata que a Amazon incentivou seus engenheiros a utilizar suas ferramentas proprietárias de IA (como o CodeWhisperer) para assistência de codificação em vez de ferramentas externas.
Para abordar as preocupações de privacidade entre as empresas, a Microsoft anunciou recentemente planos para lançar uma versão do ChatGPT com foco na privacidade que visaria bancos, provedores de assistência médica e outras grandes organizações com preocupações elevadas sobre vazamentos de dados e conformidade regulatória.
Essa versão comercial mais cara do ChatGPT está configurada para ser executada em servidores dedicados, separados daqueles usados por outras empresas ou usuários individuais, o que deve ajudar a evitar vazamentos inadvertidos de dados e impedir que dados confidenciais sejam usados para treinar o modelo de linguagem AI. Mesmo assim, é duvidoso que um concorrente de alto nível como a Apple confiaria à Microsoft seus dados confidenciais nessas circunstâncias.
Desenvolvimentos internos de IA da Apple
O Wall Street Journal também diz que a Apple está trabalhando em seus próprios LLMs sob a liderança de John Giannandrea, um ex-funcionário do Google que agora é vice-presidente sênior de aprendizado de máquina e estratégia de IA da Apple.
Recentemente, cobrimos um relatório interno do The Information que questionava o conservadorismo da estratégia de IA da Apple em meio a críticas às desvantagens de seu agora aparentemente desatualizado assistente de voz Siri. A Siri, lançada em 2011, inspirou brevemente uma versão em miniatura do hype da IA que estamos vendo agora.
É importante observar que, embora a Apple tenha restringido o uso do ChatGPT para seus funcionários, essa proibição não se estende aos usuários da Apple. Ontem, a OpenAI lançou um cliente ChatGPT oficial para usuários do iPhone nos EUA, que agora podem acessar facilmente a ferramenta em qualquer lugar com uma conta da OpenAI.
.