На входном слое есть X отдельных узлов для каждого измерения (погода, ветер и т. Д.) Входных данных, где X - количество дней, чтобы оглянуться назад (скажем, 4-7). Затем вы должны нормализовать каждое измерение ввода в подходящем диапазоне, скажем, [-1.0, 1.0].
У вас есть второй «скрытый» слой, полностью связанный с первым слоем (а также с фиксированным входом 1.0 «смещение», чтобы служить точкой исправления). Здесь должно быть меньше узлов, чем во входном, но это просто эмпирическое правило, вам может потребоваться поэкспериментировать.
Последний слой - это ваш выходной слой, полностью связанный со вторым слоем (а также падение смещения). Имейте отдельный выходной нейрон для каждого измерения.
Не забывайте тренироваться с нормализованными значениями как на входе, так и на выходе. Поскольку это временный ряд, вам может не понадобиться рандомизировать порядок обучения данных, но кормить их по мере их поступления - ваша сеть также будет изучать временные отношения (с удачей :)
(Также обратите внимание, что существует метод, называемый «временной обратного распространения», который настраивается для данных временных рядов)
Если вы заинтересованы в использовании Weka, одним из вариантов может быть попытка опробовать Knime, пакет рабочего процесса на основе eclipse, который включает в себя примитивы Weka. –
Мне любопытно, как вы примените деревья решений к этой проблеме. – brian
Случайные леса - забава – ron