В настоящее время после обучения наших моделей ML (через sci-kit), чтобы использовать их во время работы, я сохраняю их как файл .pkl и загружаю его в память во время запуска сервера. Мой вопрос: два раза:Множество моделей машинного обучения - сохранение и загрузка
Есть ли лучший способ сделать то же самое? Один файл .pkl достигает размера 500 МБ после использования самого высокого сжатия. Могу ли я сохранить свою модель в другом формате?
Как это масштабировать? У меня много таких файлов .pkl (например, 20 моделей для разных языков для одной задачи, и у меня есть 5 таких задач, т. Е. Модели ~ 5 * 20). Если я загружу все такие файлы .pkl одновременно, служба будет работать OOM. Если я загружаю/выгружаю каждый файл .pkl по запросу, API становится медленным, что неприемлемо. Как мне масштабировать или выборочно загружать единственно возможное решение?
Спасибо!
Какие типы моделей Scikit-Learn вы используете? Что представляет собой несжатый размер файла с расчетом на 500 МБ? Внутри классов Scikit-Learn обычно есть матрицы Numpy. Вы проверяли, являются ли они плотными или разреженными матрицами? – user1808924