Ciência e Tecnologia

Este site mostra o quanto a IA do Google pode extrair de suas fotos

.

O engenheiro de software Vishnu Mohandas decidiu que deixaria o Google de várias maneiras quando soube que a gigante da tecnologia havia ajudado brevemente os militares dos EUA a desenvolver IA para estudar imagens de drones. Em 2020, ele deixou o emprego trabalhando no Google Assistente e também parou de fazer backup de todas as suas imagens no Google Fotos. Ele temia que seu conteúdo pudesse ser usado para treinar sistemas de IA, mesmo que não fossem especificamente vinculados ao projeto do Pentágono. “Não controlo nenhum dos resultados futuros que isto irá permitir”, pensou Mohandas. “Então agora, eu não deveria ser mais responsável?”

Mohandas, que aprendeu programação sozinho e mora em Bengaluru, na Índia, decidiu que queria desenvolver um serviço alternativo para armazenar e compartilhar fotos que fosse de código aberto e criptografado de ponta a ponta. Algo “mais privado, saudável e confiável”, diz ele. O serviço pago que ele projetou, o Ente, é lucrativo e afirma ter mais de 100 mil usuários, muitos dos quais já fazem parte do grupo obcecado pela privacidade. Mas Mohandas teve dificuldade para articular com um público mais amplo por que eles deveriam reconsiderar a utilização do Google Fotos, apesar de todas as conveniências que ele oferece.

Então, num fim de semana de maio, um estagiário da Ente teve uma ideia: dar às pessoas uma noção do que alguns dos modelos de IA do Google podem aprender com o estudo de imagens. No mês passado, o Ente lançou https://Theyseeyourphotos.comum site e um golpe de marketing projetado para virar a tecnologia do Google contra si mesma. As pessoas podem fazer upload de qualquer foto que desejarem para o site, que é então enviada para um programa de visão computacional do Google Cloud, que escreve uma descrição surpreendentemente completa de três parágrafos. (Ente solicita que o modelo de IA documente pequenos detalhes nas imagens carregadas.)

Uma das primeiras fotos que Mohandas tentou enviar foi uma selfie com sua esposa e filha em frente a um templo na Indonésia. A análise do Google foi exaustiva, documentando até mesmo o modelo específico de relógio que sua esposa usava, um Casio F-91W. Mas então, diz Mohandas, a IA fez algo estranho: notou que os relógios Casio F-91W são comumente associado a extremistas islâmicos. “Tivemos que ajustar as instruções para torná-lo um pouco mais saudável, mas ainda assustador”, diz Mohandas. Ente começou a pedir ao modelo que produzisse resultados curtos e objetivos – nada obscuro.

A mesma foto de família enviada para Theyseeyourphotos agora retorna um resultado mais genérico que inclui o nome do templo e o “céu parcialmente nublado e vegetação exuberante” ao seu redor. Mas a IA ainda faz uma série de suposições sobre Mohandas e a sua família, como a de que os seus rostos expressam “contentamento conjunto” e os “pais são provavelmente descendentes do sul da Ásia, de classe média”. Avalia suas roupas (“apropriadas para passear”) e observa que “o relógio da mulher marca aproximadamente 14h, o que corrobora com os metadados da imagem”.

O porta-voz do Google, Colin Smith, recusou-se a comentar diretamente sobre o projeto de Ente. Ele dirigiu WIRED para páginas de suporte que os uploads de estado para o Google Fotos são usados ​​apenas para treinar modelos generativos de IA que ajudam as pessoas a gerenciar suas bibliotecas de imagens, como aqueles que analisam a idade e a localização dos assuntos das fotos. diz ela não vende o conteúdo armazenado no Google Fotos a terceiros nem o utiliza para fins publicitários. Os usuários podem desativar alguns dos recursos de análise do Fotos, mas não podem impedir totalmente o acesso do Google às suas imagens porque os dados não são criptografados de ponta a ponta.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo