Resumo: Propomos suavizar a pontuação de calibração, que mede o quão bom é um previsor, combinando previsões próximas. Embora a calibração regular possa ser garantida apenas por procedimentos de previsão aleatórios, mostramos que a calibração suave pode ser garantida por procedimentos determinísticos. Como consequência, não importa se as previsões são vazadas, ou seja, divulgadas com antecedência: a calibração suave pode, no entanto, ser garantida (enquanto a calibração regular não pode). Além disso, nosso procedimento tem recall finito, é estacionário e todas as previsões estão em uma grade finita. Para construir o procedimento, lidamos também com as configurações relacionadas de regressão linear online e calibração fraca. Finalmente, mostramos que a calibração suave produz dinâmicas de memória finita desacopladas em jogos de n pessoas “aprendizagem suave calibrada” em que os jogadores jogam equilíbrios de Nash aproximados em quase todos os períodos (em contraste, aprendizagem calibrada, que usa calibração regular, produz apenas que as médias de tempo de jogo são equilíbrios correlacionados aproximados).
0 1 minuto de leitura