Wem maio de 2014, o O tribunal de justiça emitiu uma decisão histórica de que os cidadãos europeus tinham o direito de solicitar aos motores de busca que removessem os resultados de pesquisa que ligavam a material que havia sido postado legalmente em sites de terceiros. Isso foi descrito popularmente, mas enganosamente, como o “direito ao esquecimento”; era realmente um direito que certos materiais publicados sobre o queixoso fossem excluídos dos motores de busca, dos quais o Google era de longe o mais dominante. Ou, para colocar de forma grosseira, um direito de não ser encontrado pelo Google.
Na manhã em que a decisão foi divulgada, recebi um telefonema de um funcionário relativamente sênior do Google que eu conhecia. Ficou claro em sua ligação que a empresa havia sido emboscada pela decisão – sua cara equipe jurídica claramente não esperava por isso. Mas também ficou claro que seus chefes americanos ficaram furiosos com o descaramento de uma mera instituição europeia ao emitir tal veredicto. E quando indiquei levemente que considerava isso um julgamento razoável, fui tratado com um discurso enérgico, cuja essência era que o problema com os europeus é que eles são “hostis à inovação”. Nesse ponto a conversa terminou e eu nunca mais ouvi falar dele.
O que me traz isso à mente é a reação das empresas de tecnologia a um projeto de lei da UE publicado no mês passado que, quando se tornar lei em cerca de dois anos, possibilitará que as pessoas que foram prejudicadas pelo software processem as empresas que o produzem e implantam. O novo projeto de lei, chamado de Diretiva de Responsabilidade de IA, complementará a Lei de IA da UE, que deve se tornar lei da UE na mesma época. O objetivo dessas leis é impedir que empresas de tecnologia liberem sistemas perigosos, por exemplo: algoritmos que aumentam a desinformação e visam crianças com conteúdo nocivo; sistemas de reconhecimento facial muitas vezes discriminatórios; sistemas de IA preditivos usados para aprovar ou rejeitar empréstimos ou para orientar estratégias de policiamento local e assim por diante, que são menos precisos para minorias. Em outras palavras, tecnologias que atualmente são quase totalmente não regulamentadas.
A Lei de IA exige verificações extras para usos de IA de “alto risco” que têm o maior potencial de prejudicar as pessoas, principalmente em áreas como policiamento, recrutamento e saúde. A nova lei de responsabilidade, diz o jornal Technology Review do MIT, “daria às pessoas e empresas o direito de processar por danos após serem prejudicados por um sistema de IA. O objetivo é responsabilizar os desenvolvedores, produtores e usuários das tecnologias e exigir que eles expliquem como seus sistemas de IA foram construídos e treinados. As empresas de tecnologia que não seguem as regras correm o risco de ações coletivas em toda a UE.”
Na hora certa, surge a Computer & Communications Industry Association (CCIA), a organização de lobby que representa empresas de tecnologia em Bruxelas. Sua carta aos dois comissários europeus responsáveis pelos dois atos levanta imediatamente a preocupação de que a imposição de responsabilidade objetiva às empresas de tecnologia “seria desproporcional e inadequada às propriedades do software”. E, claro, poderia ter um “efeito arrepiante” na “inovação”.
Ah sim. Essa seria a mesma inovação que levou ao escândalo da Cambridge Analytica e à interferência online russa nas eleições presidenciais de 2016 nos EUA e no referendo do Brexit no Reino Unido e permitiu a transmissão ao vivo de tiroteios em massa. A mesma inovação por trás dos mecanismos de recomendação que radicalizaram extremistas e direcionaram “10 pinos de depressão que você pode gostar” para uma adolescente problemática que posteriormente acabou com a própria vida.
É difícil decidir qual deles as duas afirmações feitas pela CCIA – que a responsabilidade objetiva é “inadequada” ao software ou que a “inovação” é a característica definidora da indústria – é a mais absurda. Por mais de 50 anos, a indústria de tecnologia foi concedida uma latitude estendida a nenhuma outra indústria, ou seja, evitar a responsabilidade legal pelas inúmeras deficiências e vulnerabilidades de seu produto principal ou os danos que essas falhas causam.
O que é ainda mais notável, porém, é como a alegação das empresas de tecnologia de serem as únicas mestras da “inovação” tem sido aceita por seu valor nominal por tanto tempo. Mas agora dois eminentes advogados de concorrência, Ariel Ezrachi e Maurice Stucke, denunciaram o blefe das empresas. Em um novo livro notável,
How Big-Tech Barons Smash Innovation – And How to Strike Back, eles explicam como os únicos tipos de inovação tecnológica que as empresas toleram é o que se alinha com seus próprios interesses. Eles revelam como as empresas de tecnologia são implacáveis em sufocar inovações disruptivas ou ameaçadoras, seja por aquisição preventiva ou cópia aberta, e que seu domínio de mecanismos de busca e plataformas de mídia social restringe a visibilidade de inovações promissoras que podem ser competitiva ou socialmente úteis. Como um antídoto para o exagero tecnológico, o livro será difícil de vencer. Deve ser leitura obrigatória para todos na Ofcom, a Autoridade de Concorrência e Mercados e o DCMS. E a partir de agora “inovação para quem?” deve ser a primeira pergunta para qualquer incentivador de tecnologia que esteja ensinando sobre inovação.
A teia do tempo O problema espinhoso de manter o Internet’s Time é um fascinante
New Yorker ensaio de Nate Hopper sobre o gênio que, muitos anos atrás, criou o misterioso sistema de software que sincroniza os relógios da rede.








