Vasilii
Извините, но ваша система не выглядит объективной. Вот у вас даже лидер поменялся, что свидетельствует о проблемах с методологией. Первого места лишился dpd, где-то потеряв 7 баллов, по отношению к GFSmodel. Давайте разбираться где.
Смотрим май: там все завысили, но dpd показал результат вдвое лучше, он ошибся только на 1.2 градуса, а GFSmodel - на 2.2 градуса. За что первый получил заслуженные 4 балла, второй - ничего. По вашей системе получается: хоть на 1 градус ошибся, хоть на 2, занял 3-е место или 11-е - разницы в очках практически никакой.
Дальше июль: у dpd было точное попадание, у GFSmodel - на 0.1 ошибка, сгорело еще 2 балла бонусов, которых у вас нет.
Но самая беда в августе: там все попали в молоко и должны получить нули. Ну как можно начислять очки за ошибку в 3 градуса в августе, в самом предсказуемом месяце? Целых 5 абсолютно незаслуженных очков преимущества получает GFSmodel только за счет августа.
Дальше сентябрь: dpd показывает лучший результат с ошибкой 0.1, а GFSmodel - глубоко в середине таблицы, однако по вашей схеме dpd получает всего на 2 балла больше, а не на 6, как было бы по традиционной схеме.
В итоге, dpd дважды (в июле и сентябре) занимает ТОП1, но оказывается только на третьем месте в сводной таблице за год.
Отсюда можно сделать вывод, что система чрезвычайно лояльна к посредственным результатам или вообще неучастию. Лидер, который попадает точно, почти не имеет преимущества в очках над серединой таблицы.