У меня есть файлы, которые я импортирую из CSV в SQLite каждый день. Есть около 30 000 - 60 000 строк в день, которые добавляются к моему столу, что делает эту таблицу довольно большой.Размер файла базы данных или размер базы данных? SQLite
Есть некоторые другие данные, которые я обычно сохраняю разделенными и vlookup, но было бы более эффективно просто импортировать их в мою базу данных и использовать Joins. Эта таблица будет меньше (может быть, 500 - 1000 записей в день).
Это влияет на производительность, чтобы иметь тонну таблиц в одном файле базы данных? Является ли размер таблицы более важным, чем общий размер базы данных? Я мог бы технически добавить еще несколько файлов, которые могли бы быть связаны друг с другом, но я никогда не делал этого раньше, потому что раньше использовал Access и Excel, которые просто не могли обрабатывать большие файлы.
Этот тип открытого вопроса более подходит для http://programmers.stackexchange.com/. Сообщество здесь больше сосредотачивается на вопросах, которые имеют конкретный ответ. – kurast
Я думаю, что вопрос достаточно конкретный. Лэнс спрашивает, влияет ли количество таблиц на производительность, чем размер таблицы. На мой взгляд, это законный вопрос. – ApplePie
Базы данных могут с радостью обрабатывать миллионы/миллиарды или строки и при условии, что они правильно структурированы и индексированы, будет продолжать работать очень эффективно. Этот ответ даст вам представление о том, как большие таблицы sqllite могут получить теоретически: http://stackoverflow.com/questions/1546947/maximum-number-of-rows-in-a-sqlite-table. Невозможно дать более ясный ответ, так как вы сомневаетесь в том, что он немного расплывчатый. –