.
A Network Rail não respondeu a perguntas sobre os testes enviados pela WIRED, incluindo perguntas sobre o status atual do uso de IA, detecção de emoções e questões de privacidade.
“Levamos muito a sério a segurança da rede ferroviária e utilizamos uma gama de tecnologias avançadas em nossas estações para proteger os passageiros, nossos colegas e a infraestrutura ferroviária do crime e outras ameaças”, disse um porta-voz da Network Rail. “Quando implantamos tecnologia, trabalhamos com a polícia e os serviços de segurança para garantir que estamos tomando medidas proporcionais e sempre cumprimos a legislação relevante relativa ao uso de tecnologias de vigilância.”
Não está claro até que ponto a análise de detecção de emoções foi implantada, com os documentos às vezes dizendo que o caso de uso deveria ser “visto com mais cautela” e os relatórios das estações dizendo que é “impossível validar a precisão”. No entanto, Gregory Butler, CEO da empresa de análise de dados e visão computacional Purple Transform, que tem trabalhado com a Network Rail nos testes, diz que o recurso foi descontinuado durante os testes e que nenhuma imagem foi armazenada quando estava ativo.
Os documentos da Network Rail sobre os testes de IA descrevem vários casos de uso envolvendo o potencial das câmeras enviarem alertas automatizados à equipe quando detectarem determinado comportamento. Nenhum dos sistemas utiliza tecnologia controversa de reconhecimento facial, que visa combinar as identidades das pessoas com aquelas armazenadas em bancos de dados.
“O principal benefício é a detecção mais rápida de incidentes de invasão”, diz Butler, acrescentando que o sistema analítico de sua empresa, SiYtE, está em uso em 18 locais, incluindo estações de trem e ao longo dos trilhos. No mês passado, diz Butler, houve cinco casos graves de invasão que os sistemas detectaram em dois locais, incluindo um adolescente coletando uma bola nas pistas e um homem “passando mais de cinco minutos pegando bolas de golfe ao longo de uma pista de alta velocidade”. linha.”
Na estação ferroviária de Leeds, um dos mais movimentado fora de Londres, existem 350 câmeras CCTV conectadas à plataforma SiYtE, diz Butler. “As análises estão sendo usadas para medir o fluxo de pessoas e identificar problemas como aglomeração de plataformas e, claro, invasão – onde a tecnologia pode filtrar os trabalhadores rastreados através de seus uniformes de EPI”, diz ele. “A IA ajuda os operadores humanos, que não podem monitorar todas as câmeras continuamente, a avaliar e resolver riscos e problemas de segurança prontamente.”
Os documentos da Network Rail afirmam que as câmeras usadas em uma estação, Reading, permitiram que a polícia acelerasse as investigações sobre roubos de bicicletas ao ser capaz de identificar as bicicletas nas filmagens. “Foi estabelecido que, embora a análise não pudesse detectar um roubo com segurança, eles poderiam detectar uma pessoa com uma bicicleta”, dizem os arquivos. Eles também acrescentam que os novos sensores de qualidade do ar usados nos testes poderiam economizar o tempo da equipe na realização de verificações manuais. Uma instância de IA usa dados de sensores para detectar pisos “suados”, que se tornaram escorregadios com a condensação, e alertar a equipe quando eles precisam ser limpos.
Embora os documentos detalhem alguns elementos dos julgamentos, os especialistas em privacidade dizem estar preocupados com a falta geral de transparência e com o debate sobre a utilização da IA em espaços públicos. Num documento concebido para avaliar questões de protecção de dados nos sistemas, Hurfurt, do Big Brother Watch, diz que parece haver uma “atitude desdenhosa” em relação a pessoas que possam ter preocupações com a privacidade. Um pergunta pergunta: “Algumas pessoas provavelmente objetarão ou acharão isso intrusivo?” Um membro da equipe escreve: “Normalmente não, mas não há prestação de contas para algumas pessoas”.
Ao mesmo tempo, sistemas de vigilância de IA semelhantes que utilizam a tecnologia para monitorizar multidões estão a ser cada vez mais utilizados em todo o mundo. Durante os Jogos Olímpicos de Paris, na França, no final deste ano, a vigilância por vídeo com IA observará milhares de pessoas e tentará detecte multidões, uso de armas e objetos abandonados.
“Os sistemas que não identificam as pessoas são melhores do que aqueles que o fazem, mas preocupo-me com a possibilidade de uma ladeira escorregadia”, diz Carissa Véliz, professora associada de psicologia no Instituto de Ética em IA, da Universidade de Oxford. Véliz aponta para testes de IA semelhantes no metro de Londres que inicialmente desfocaram os rostos de pessoas que poderiam estar a evitar as tarifas, mas depois mudaram de abordagem, desfocando as fotos e mantendo as imagens durante mais tempo do que o inicialmente planeado.
“Há um impulso muito instintivo para expandir a vigilância”, diz Véliz. “O ser humano gosta de ver mais, de ver mais longe. Mas a vigilância leva ao controlo, e o controlo conduz a uma perda de liberdade que ameaça as democracias liberais.”
.