У меня есть много данных, чтобы синхронизировать более 4 или 5 сайтов по всему миру, около половины терабайта на каждом сайте. Это изменяется (добавляется или изменяется) примерно на 1,4 гигабайта в день, и данные могут меняться на любом из четырех сайтов.Каков наилучший способ синхронизации больших объемов данных по всему миру?
Большой процент (30%) данных - это дублированные пакеты (возможно, упакованные JDK), поэтому решение должно включать способ сбора факта, что на локальной машине есть такие вещи, лежащие на локальной машине и захватить их вместо загрузки с другого сайта.
Контроль версий - это не проблема, это не кодовая база.
Мне просто интересно, есть ли там какие-либо решения (желательно с открытым исходным кодом), которые приближаются к такому веществу?
Мой детский скрипт с использованием rsync больше не режет горчицу, я хотел бы сделать более сложную, интеллектуальную синхронизацию.
Благодаря
Edit: Это должно быть UNIX на основе :)
Это * почти * право, и мне особенно нравится ссылка на сайт. С Unison он сначала не смотрит на локальную файловую систему для решения, скажем, в родительском каталоге или в каталоге сестра (я даже хотел бы определить это). Если размер, имя, мода-время, контрольная сумма совпадают, возьмите это вместо ... – Spedge
Почему вы не используете вместо этого ссылки для этого вместо репликации этих JDK и еще чего-то? Не кажется правильным беспокоиться о дублировании вещей, которые, разумеется, не нуждаются в дублировании. Unison WILL синхронизирует ссылки ... так что это сработает и избавит вас от некоторых космических потребностей и некоторых головных болей. –