Привет, я разработчик сервера, и у нас есть большая база данных mysql (у самой большой таблицы около 0,5 миллиарда строк) работает 24-7.Очистка данных, миграция в большой базе данных в процессе эксплуатации
И есть много разбитых данных. Большинство из них логически ошибочны и связаны с несколькими источниками (несколько таблиц, s3). И так как это логично сложно, нам нужна модель Rails для их очистки (не может быть сделано с использованием чистых запросов sql)
Прямо сейчас, я использую свою собственную небольшую схему очистки и используя AWS Auto Scaling Group для расширения экземпляров и ускоряться. Но поскольку база данных находится в рабочем состоянии, я должен быть осторожным (блокировки таблиц и другие компоненты) и ограничить объем процесса.
Так мне любопытно
- Как вы (или крупные компании) очистить свои данные, когда база данных находится в рабочем состоянии?
- Вы используете временные таблицы и свопите? или просто обновить/вставить/удалить в базу данных в службе?
- Вы используете фреймворк или библиотеку или решение для эффективной очистки данных? (например, распределенная обработка)
- Как вы обнаруживаете испорченные данные в реальном времени?
- Вы используете фреймворк или библиотеку или решение для обнаружения сломанных данных?
Проведите 25% ресурсов, поддерживающих текущий оборот. 75 в системе с целостностью данных/ссылочной целостностью – Drew
Но этот вопрос слишком широк. Я просто удалю его, потому что мы не сообщим вам ничего, чего вы еще не знаете. – Drew