Я должен обновить JavaSchemaRDD
с некоторыми новыми значениями, имея некоторые условия WHERE
.Как выполнить обновление в Apache Spark SQL
Это SQL-запрос, который я хочу, чтобы преобразовать в Спарк SQL:
UPDATE t1
SET t1.column1 = '0', t1.column2 = 1, t1.column3 = 1
FROM TABLE1 t1
INNER JOIN TABLE2 t2 ON t1.id_column = t2.id_column
WHERE (t2.column1 = 'A') AND (t2.column2 > 0)
Я не думаю, что вы можете выполнить _update_ в Spark SQL. Спарк в целом имеет дело с неизменяемыми данными. Идея состоит в том, чтобы взять один огромный набор данных и преобразовать его в другой огромный набор данных. Я думаю, это направление, в котором вы должны попытаться приблизиться к этому. –