.
A campanha eleitoral de 2024 no Reino Unido foi dominada pela discussão das pesquisas, do início ao fim. Isso se deveu em parte ao grande volume de pesquisas publicadas. Tivemos mais pesquisas MRP (regressão multinível pós-estratificação) do que nunca, muitas dando imagens bem diferentes do tamanho da liderança do Partido Trabalhista.
O gráfico abaixo mostra o desempenho médio de 27 pesquisas que previram parcelas de votos na disputa pouco antes da eleição em 4 de julho. As previsões das pesquisas estão à esquerda e as parcelas de votos reais estão à direita para cada um dos cinco partidos políticos do Reino Unido.
Como uma aproximação padrão da indústria, se os resultados diferem dos desfechos em mais de 3%, há uma diferença estatisticamente significativa entre a pesquisa e o resultado. Em outras palavras, os pesquisadores erraram.
Previsões finais da pesquisa e parcelas reais de votos:

P. BrancoCC BY-ND
Usando esse critério aproximado, os pesquisadores superestimaram o voto trabalhista e, sem dúvida, subestimaram o voto conservador, embora no último caso estivesse no limite da significância estatística. Os outros partidos estavam dentro da margem de erro. Para ser justo, diferentes empresas de pesquisa variaram em sua precisão, então precisamos olhar um pouco mais de perto os resultados.
A lista abaixo mostra o quão precisas 27 agências de pesquisa foram na previsão das parcelas de votos na eleição. A precisão pode ser medida de diferentes maneiras, mas o método usado aqui é mais fácil de entender do que a maioria dos outros. Uma pontuação baixa significa que a pesquisa foi mais precisa.

Pacote de Marcas
Para explicar como isso foi calculado, podemos olhar para o exemplo da pesquisa regular da More in Common, que foi uma das mais precisas. Simplesmente calculamos a distância entre a pesquisa e as cotas de votos para cada partido e então somamos tudo. Por exemplo, a More in Common previu que o Partido Trabalhista obteria 39%, os Conservadores 24%, a Reforma 15%, os Democratas Liberais 12% e os Verdes 5%.
A parcela final de votos em 4 de julho foi de 34% para o Partido Trabalhista, 24% para os Conservadores, 14% para a Reforma, 12% para os Democratas Liberais e 7% para os Verdes. Se calcularmos a diferença entre a previsão e os resultados, More in Common estava 5% fora para o Partido Trabalhista, 1% fora para a Reforma, certeiro para os Conservadores e Democratas Liberais e 2% para os Verdes, o que produz uma pontuação de precisão de oito.
As pontuações de precisão variam bastante entre os pesquisadores. A lista contém cinco pesquisas MRP. Essas pesquisas de big data são mais conhecidas por prever os resultados em constituintes específicos usando grandes amostras. O YouGov MRP teve uma amostra de quase 60.000 entrevistados.
É notável que, apesar das amostras muito grandes associadas às pesquisas MRP, elas não foram as mais precisas da lista, embora tenham se saído melhor do que a pontuação média de precisão de pouco menos de 13. Ao mesmo tempo, essa diferença não foi consistente. O YouGov MRP teve uma pontuação de oito em comparação com uma pontuação de 11 para sua pesquisa regular. No entanto, o inverso foi verdadeiro para o More in Common, que marcou oito para sua pesquisa regular e dez para seu MRP.
Por que as pesquisas erram?
Um dos problemas mais agudos em pesquisas é obter amostras representativas do eleitorado. Todas as empresas de pesquisa estão lutando com esse problema desde que o padrão ouro, pesquisas de probabilidade aleatória, onde pessoas em todo o país são selecionadas aleatoriamente e chamadas, quase morreram por serem muito caras e demoradas para serem conduzidas.
Praticamente todas as empresas de pesquisa agora usam amostras de cotas. Isso envolve entrevistar uma proporção definida de diferentes grupos necessários para tornar a amostra representativa do eleitorado. Eles entrevistam números definidos de pessoas de grupos com base em coisas como idade, gênero e origem étnica. Isso requer dados do censo e outras fontes para identificar o tamanho das cotas.
Quando as cotas não são preenchidas, isso pode criar viés nas amostras. Isso nem sempre é um problema, pois os pesos podem ser usados para compensar a não resposta. Por exemplo, se precisamos de uma cota de 200 eleitores com menos de 25 anos para uma amostra representativa, mas só obtemos 100, podemos contar os últimos duas vezes na análise. Isso é essencialmente o que a ponderação faz.
No entanto, a suposição oculta aqui é que os jovens entrevistados são representativos daqueles que não são entrevistados. O jornalista americano Ken Goldstein citou isso como contribuindo para o fracasso das pesquisas em prever a eleição presidencial dos EUA de 2016. Ele disse: “Normalmente, presumimos que o problema é que o grupo X é muito pequeno, mas o problema real é que o grupo X é muito estranho.”

Quer mais cobertura política de especialistas acadêmicos? Toda semana, trazemos a você análises informadas de desenvolvimentos no governo e checamos os fatos das alegações que estão sendo feitas.
Inscreva-se para receber nosso boletim semanal sobre políticaentregue toda sexta-feira durante a campanha e depois dela.
Isso dá origem a um problema sério destacado pelo cientista político Michael Bailey em seu livro recente, Polling at a Crossroads. O termo técnico para isso é “não-resposta não ignorável”. Se os entrevistados e os não entrevistados diferem e não podemos verificar isso de outras fontes, então a pesquisa será tendenciosa e dará as respostas erradas.
Podemos descobrir no censo se as cotas de jovens ou minorias étnicas estão corretas, mas ele não nos dirá se os entrevistados estão mais interessados e menos alienados da política do que os não entrevistados.
A implicação é que as pesquisas da véspera das eleições continham esse tipo de não resposta e, portanto, exageravam o apoio dos partidos Trabalhista e Reformista. Foi muito provavelmente causado por não respondentes sendo mais apáticos ou mais alienados da política do que os respondentes.
.








