Ciência e Tecnologia

A Meta traz seu teste de reconhecimento facial antifraud para o Reino Unido depois de receber um polegar para cima dos reguladores

.

Em outubro passado, a Meta mergulhou o dedo do pé no mundo do reconhecimento facial – uma área em que teve um recorde complicado – com um teste internacional de duas novas ferramentas: uma para interromper os golpes com base em semelhanças de pessoas famosas e um segundo recurso de reconhecimento facial para ajudar as pessoas a voltarem às contas do Facebook ou Instagram. Agora, esse teste está se expandindo para um país mais notável.

Depois de manter inicialmente o teste de reconhecimento facial no Reino Unido, a Meta na quarta -feira começou a rolar as duas ferramentas lá também. E em outros países onde as ferramentas já lançaram, a proteção de “isca de celebridade” está sendo estendida a mais pessoas, disse a empresa.

A Meta disse que recebeu a luz verde no Reino Unido depois de “depois de se envolver com os reguladores” no país – que em si fez um grande ponto nos últimos meses adotando a IA. Nenhuma palavra ainda na Europa, a outra região -chave em que a Meta ainda não lançou as ferramentas de reconhecimento facial.

“Nas próximas semanas, os números públicos no Reino Unido começarão a ver notificações no aplicativo, informando que agora podem aceitar a proteção da isca de celebridade com tecnologia de reconhecimento facial”, disse uma declaração da empresa. Tanto isso quanto as ferramentas opcionais “Verificação de selfie de vídeo”, disse Meta.

Quando a Meta descreveu pela primeira vez o lançamento das duas novas ferramentas de reconhecimento facial, a empresa disse que os recursos não estavam sendo usados ​​para nada além dos propósitos descritos: os anúncios de fraude e a verificação do usuário.

“Excluímos imediatamente quaisquer dados faciais gerados a partir de anúncios para essa comparação única, independentemente de nosso sistema encontrar uma correspondência, e não o usamos para nenhum outro propósito”, escreveu Monika Bickert, vice-presidente de conteúdo da Meta em um Postagem do blog (que agora é atualizado com os detalhes sobre a expansão do Reino Unido).

No entanto, os desenvolvimentos chegam em um momento em que a Meta está all-in na IA em seus negócios.

Além de construir seus próprios modelos de idiomas e usar a IA em seus produtos, ele também está trabalhando em um aplicativo independente de IA. Também se intensificou esforços de lobby Em torno da tecnologia e, dado a seus dois centavos, o que considera ser aplicado a aplicações arriscadas de IA, como aquelas que podem ser armadas (a implicação é que o que a meta constrói não é arriscada).

A mudança da empresa de criar ferramentas que corrigem problemas imediatos em seus aplicativos é provavelmente a melhor abordagem para obter aceitação de novos recursos de reconhecimento facial. Esses recursos se encaixam nessa conta. Como dissemos antes, a Meta foi acusada por muitos anos por não impedir que os golpistas apropram mal os rostos das pessoas famosas, em uma tentativa de usar sua plataforma de anúncios para aumentar os golpes, como investimentos duvidosos de criptografia para usuários inocentes.

O reconhecimento facial tem sido uma das áreas de Thornier para meta ao longo dos anos em que trabalhou com a tecnologia de IA. Mais recentemente, a empresa no ano passado concordou em pagar US $ 1,4 bilhão Para resolver um processo de longa duração no Texas, onde estava sendo processado por coleta inadequada de dados biométricos relacionada à sua tecnologia de reconhecimento facial.

O Facebook, em 2021, fechou sua ferramenta de reconhecimento facial de uma década para fotos, um recurso que enfrentou o número de problemas regulatórios e legais. Curiosamente, no momento retido Uma parte da tecnologia: seu modelo Deepface, que afirmou incorporar em tecnologia futura. Isso poderia muito bem fazer parte do que está sendo construído com os produtos de hoje.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo