У меня есть текстовый файл:
DATE 20090105
1 2.25 1.5
3 3.6 0.099
4 3.6 0.150
6 3.6 0.099
8 3.65 0.0499
DATE 20090105
DATE 20090106
1 2.4 1.40
2 3.0 0.5
5 3.3 0.19
7 2.75 0.5
10 2.75 0.25
DATE 20090106
DATE 20090107
2 3.0 0.5
2 3.3 0.19
9 2.75 0.5
DATE 20100107
Каждый день у меня:
Time Rating Variance
Я хочу рассчитать среднюю дисперсию в определенное время в наибольшей временной шкале.
Файл огромен, и это всего лишь небольшой отредактированный образец. Это означает, что я не знаю самое последнее и самое раннее время (это около 2600), а самое последнее время может быть около 50000.
Так, например, во все дни у меня есть только 1 значение во время t = 1, следовательно, это средняя дисперсия в то время.
В момент времени t=2 в первый день дисперсия в момент времени t=2 принимает значение 1,5, так как она длится до t=3, во второй день принимает значение =0,5, а в третий день принимает значение ((0,5+ 0,18)/2). Таким образом, средняя дисперсия за все дни в момент времени t=2 представляет собой сумму всех дисперсий в это время, деленную на количество различных дисперсий в это время.
В последний раз в день масштаб времени, который требуется, равен t=1.
Мне просто интересно, как бы я вообще поступил с этим.
Как полный новичок, я нахожу это довольно сложным. Я студент универа, но университет закончился, и я пытаюсь выучить Java, чтобы помочь папе в бизнесе летом. Поэтому любая помощь в отношении решений приветствуется.