2016-08-18 5 views
2

Недавно я опубликовал переполнение стека об ошибке OOM при запуске множества udfs на одной таблице (bigquery udf out of memory issues). Эта ошибка, кажется, частично исправлена, однако я запускаю новую ошибку при запуске udf в таблице из 10 000 строк. Вот сообщение об ошибке:Ошибка канала связи при работе BigQuery udf

Ошибка: Произошла ошибка при общении с подпроцессом. сообщение: "Ошибка канала связи в течение 4 команды" sandbox_process_error {}

Ошибка Расположение: определяемые пользователем функции

Работа ID: широколиственные CGA-гет: bquijob_32bc01d_1569f11b8a2

ошибка не возникают, когда я удаляю инструкцию emit в udf, поэтому ошибка должна возникать, когда udf пытается записать обратно в другую таблицу.

Вот копия самого ОДС:

bigquery.defineFunction(
    'permute', 
    ['obj_nums','num_obj_per_indiv','row_number'], // Names of input columns 
    [{"name": "num_cooccurrences_list","type": "string","mode":"nullable"}], // Output schema 
    permute 
); 

function permute(row, emit) { 

    var obj_ids = row['obj_nums'].split(",").map(function (x) { 
     return parseInt(x, 10); 
    }); 

    var num_obj_per_indiv = row['num_obj_per_indiv'].split(",").map(function (x) { 
     return parseInt(x, 10); 
    }); 

    var row_number = row['row_number'] 

    // randomly shuffle objs using Durstenfeld shuffle algorithm 
    obj_ids = shuffle_objs(obj_ids); 
    // form dictionary of obj_pairs from obj_ids 
    var perm_run_obj_set = new Set(obj_ids); 
    var perm_run_obj_unique = Array.from(perm_run_obj_set); 
    perm_run_obj_unique.sort(); 
    var perm_run_obj_pairs_dict = {}; 
    output = {} 
    for (var i = 0; i < perm_run_obj_unique.length - 1; i++) { 
    for (var j = i + 1; j < perm_run_obj_unique.length; j++) { 
     var obj_pair = [perm_run_obj_unique[i],perm_run_obj_unique[j]].sort().join("_") 
     perm_run_obj_pairs_dict[obj_pair] = 0 
    } 
    } 

    // use fixed number of objs per indiv and draw from shuffled objs 
    var perm_cooccur_dict = {}; 

     //num_obj_per_indiv = num_obj_per_indiv.slice(0,3); 

     for(var index in num_obj_per_indiv) { 

       var obj_count = num_obj_per_indiv[index] 
       var perm_run_objs = []; 
       for(var j = 0; j < obj_count; j++) { 
         perm_run_objs.push(obj_ids.pop()); 
       } 

       perm_run_objs = new Set(perm_run_objs); 
       perm_run_objs = Array.from(perm_run_objs) 
       while(perm_run_objs.length > 1) { 

         current_obj = perm_run_objs.pop() 
         for(var pair_obj_ind in perm_run_objs) { 
            var pair_obj = perm_run_objs[pair_obj_ind] 
            var sorted_pair = [current_obj,pair_obj].sort().join("_") 
            perm_run_obj_pairs_dict[sorted_pair] += 1 
            // console.log({"obj_pair":[current_obj,pair_obj].sort().join("_"),"perm_run_id":row_number}) 
            // emit({"obj_pair":[current_obj,pair_obj].sort().join("_"),"perm_run_id":row_number}); 
          } 
       } 
     } 
     // emit({"obj_pair":[current_obj,pair_obj].sort().join("_"),"perm_run_id":row_number}); 
    // form output dictionary 
    num_cooccur_output = "" 
    for (var obj_pair in perm_run_obj_pairs_dict) { 
    //emit({"obj_pair":obj_pair,"num_cooccur":perm_run_obj_pairs_dict[obj_pair]}); 
     num_cooccur_output += String(perm_run_obj_pairs_dict[obj_pair]) 
     num_cooccur_output += "," 
    } 
    num_cooccur_output = num_cooccur_output.substring(0, num_cooccur_output.length - 1); 
    emit({"num_cooccurrences_list":num_cooccur_output}); 
} 

/** 
* Randomize array element order in-place. 
* Using Durstenfeld shuffle algorithm. 
*/ 
function shuffle_objs(obj_array) { 
    for (var i = obj_array.length - 1; i > 0; i--) { 
    var j = Math.floor(Math.random() * (i + 1)); 
    var temp = obj_array[i]; 
    obj_array[i] = obj_array[j]; 
    obj_array[j] = temp; 
    } 
     return obj_array; 
} 

Любая помощь будет высоко ценится!

Спасибо, Daniel

+0

Привет, любое обновление по этой проблеме? Мы испытываем то же самое; кроме того, попытки не помогают. Мы запускаем кучу похожих заданий, а половина из них не работает. Это всегда одни и те же задания, и в результате вся задача в настоящий момент заблокирована. Началось, может быть, неделю назад без каких-либо изменений в нашем коде. (например, job_8eQwaFaMZyYp6B7lIifBBAOijnQ). –

ответ

0

Не то, что это непосредственно отвечает на ваш первоначальный вопрос, но я не уверен, что вам нужно UDF для этого типа трансформации. Например, с помощью standard SQL (снимите флажок «Использовать прежние SQL» в разделе «Show Options») можно выполнить преобразование массива, такие как:

WITH T AS (SELECT [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] AS arr) 
SELECT 
    x, 
    new_x 
FROM T, 
    UNNEST(
    ARRAY(SELECT AS STRUCT 
      x, 
      arr[OFFSET(CAST(RAND() * (off + 1) AS INT64))] AS new_x 
      FROM UNNEST(arr) AS x WITH OFFSET off)); 
+---+-------+ 
| x | new_x | 
+---+-------+ 
| 0 | 1  | 
| 1 | 2  | 
| 2 | 0  | 
| 3 | 2  | 
| 4 | 4  | 
| 5 | 0  | 
| 6 | 5  | 
| 7 | 4  | 
| 8 | 8  | 
| 9 | 3  | 
+---+-------+ 

я могу объяснить больше, если это помогает, но суть запроса в том, что он рандомизирует элементы в arr, используя формулу из вашего UDF выше. FROM T, UNNEST(... разворачивает элементы массива, чтобы сделать их легче увидеть, но я мог бы альтернативно сделать:

WITH T AS (SELECT [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] AS arr) 
SELECT 
    ARRAY(SELECT AS STRUCT 
      x, 
      arr[OFFSET(CAST(RAND() * (off + 1) AS INT64))] AS new_x 
     FROM UNNEST(arr) AS x WITH OFFSET off) 
FROM T; 

Это дает массив структур, как объем производства, где каждый x связан с new_x.

+0

Hi Elliot, Это отличное предложение, и я планировал сделать именно это, чтобы выполнить ту же операцию в запросе вместо udf. Спасибо, что помогли мне начать с этого :) Я действительно думаю, что эта проблема по-прежнему подчеркивает ограничение функциональности BigQuery udf, и было бы замечательно, если бы было возможное исправление для udf, но тем временем я я рад написать запрос, чтобы сделать по существу то же самое, что и udf. –

Смежные вопросы