Хотя это слишком поздно для автора этого вопроса. Возможно, кто-то хочет протестировать некоторые алгоритмы оптимизации, когда он читает это ...
Если вы работаете с регрессиями в машинном обучении (NN, SVM, множественная линейная регрессия, K ближайший сосед), и вы хотите минимизировать (максимизировать) ваша регрессионная функция, на самом деле это возможно, но эффективность таких алгоритмов зависит от сглаженности (шаг за шагом ... и т. д.) региона, в котором вы ищете.
Чтобы построить такое «машинное обучение» Регрессии "вы можете использовать scikit- learn. Вы должны тренироваться и проверять свой MLR Support Vector Regression. («подходит» метод)
SVR.fit(Sm_Data_X,Sm_Data_y)
Затем вы должны определить функцию, которая возвращает предсказание вашей регрессии для массива «х».
def fun(x):
return SVR.predict(x)
Для оптимизации можно использовать scipiy.optimize.minimize. См. Примеры, следующие за ссылками doc.
Я смотрел на сравнение сканирования массива грубой силы, имитированный отжиг и минимизацию Миграда, построенного из Minuit в корне. – physicsmichael