У меня есть ~ 30 списков, некоторые словари и большинство из них содержат по меньшей мере 200 элементов, целые числа и строки.Каков предпочтительный способ обработки данных в Python?
Данные очищаются с использованием селена и красивого супа для анализа html, а затем разделяются на списки имен/значений, обновляется сайт и повторяется процесс.
В то время как это происходит, я выполняю функции для обработки этих имен/значений в средних значениях, скорости изменения с течением времени, а затем сравнивая их с предыдущими результатами.
В настоящий момент все это просто хранится в памяти внутри моего скрипта python. Я посмотрел на использование файлов csv для хранения и извлечения данных или базы данных sqlite/или даже с использованием базы данных sqlite в памяти, но не знаю, насколько быстрее/медленнее эти параметры.
Любой совет будет очень благодарен!
Решение использовать, зависит от ограничения, которые вы e не указан в вашем вопросе и о конкретных деталях использования сохраненных данных позже. Как написано, ваш вопрос в основном основан на мнениях. Можете ли вы использовать CSV? Да. База данных SQL? Да. Соленья? Да. Свалка JSON? Да. – Louis
Данные расходуются в основном, как только они захватываются, я сказал, что думаю? Я просто беспокоился о верхних границах хранения памяти и должен ли я делать что-то еще, или, точнее, в какой момент мой компьютер не сможет справиться с таким большим количеством данных в памяти! – jfox
Из моего комментария "** конкретных ** деталей". Высказывание «Данные потребляются в основном, как только они захватываются» не является конкретным. – Louis