2016-12-16 6 views
4

Google только что открыла бета-версию теста Data Engineer. Они показали примерный вопрос. Можно ли получить объяснение, чтобы получить решение.Google Cloud Platform - резервная загрузка

Ваша компания ежедневно перемещает базы данных в облако. Каждая резервная копия составляет 10 ТБ. У вас есть соединение 1 Гбит/с с Google Cloud. Вы хотите минимизировать затраты. Сколько потребуется дополнительной полосы пропускания?

ответ

3

Спасибо, Брэндон за ваш ответ, видимо, ответ на этот вопрос - это всего лишь конверсия единиц и разделение.

Чтобы рассчитать время загрузки данных, вы делите объем данных по скорости соединения.

10TB/1Gbps = 22.22hours

принимая во внимание, что данные измеряется в байтах, а скорость в битах. После этого можно добавить 10% из-за колебаний скорости соединения.

24.44hours

Ответ более чем за один день, причина того, что заставляет вас думать, что вам нужно будет увеличить скорость подключения к 2Гбит для того, чтобы иметь время загрузки в 12.22hours.

2

Я не работаю на этом тесте или каких-либо специальных знаний канонически «правильный» ответ, но я знаю, некоторые основные алгебраические, так что давайте принять удар на это:

Каждая резервная 10 терабайт , Они ежедневные резервные копии, что означает, что нам нужно загрузить как минимум одну резервную копию в день. 10 терабайт в день is 0.926 Gbps, что означает, что у нас уже достаточно полосы пропускания.

Конечно, на практике нам, вероятно, потребуется больше полосы пропускания. У нас есть общая сумма в 1 Гбит/с для работы, и мы, вероятно, тоже с ней работаем. Кроме того, мы, вероятно, захотим учитывать возможность того, что одна из наших загрузок может по какой-то причине сбой. И действительно ли мы хотим, чтобы наши ежедневные загрузки были почти целым лишним днем? Кроме того, как часто соединение 1 Гбит/с действительно способно достичь более 92% обещанной емкости?

Смежные вопросы