Мы создали тестовый стол из искровой оболочки, а также из Zepellin. Но когда мы показываем таблицы на одной таблице, они видны в соответствующей среде. Таблица, созданная с помощью искровой оболочки, не отображается в команде Zepellin show table. В чем разница между этими двумя таблицами? может кто-нибудь объяснить.Столы VORA в оболочке Zeppelin и Spark
2
A
ответ
1
Команда show tables
показывает только таблицы, определенные в текущем сеансе.
Таблица создана в текущей сессии, а также в (постоянном) каталоге в Zookeeper. Вы можете показать все таблицы, Вор, сохраненные в Zookeeper с помощью этой команды:
SHOW DATASOURCETABLES
USING com.sap.spark.vora
OPTIONS(zkurls "<zookeeper_server>:2181")
Вы также можете зарегистрировать всех или одной таблицу в текущей сессии с помощью этой команды:
REGISTER ALL TABLES
USING com.sap.spark.vora
OPTIONS(zkurls "<zookeeper_server>:2181")
REGISTER TABLE <tablename>
USING com.sap.spark.vora
OPTIONS(zkurls "<zookeeper_server>:2181")
Так что если вы хотите получить доступ таблицу, созданную в Spark Shell от Zookeeper, и наоборот, вам необходимо сначала ее зарегистрировать.
Вы можете использовать эти команды, если вам нужно очистить каталог Zookeeper. Имейте в виду, что таблицы, то должны быть воссозданы:
import com.sap.spark.vora.client._
ClusterUtils.clearZooKeeperCatalog("<zookeeper_server>:2181")
Это (и более) информацию можно найти в Vora Installation and Developer Guide
Смежные вопросы
- 1. Spark, ADAM и Zeppelin
- 2. Datastax Spark Zeppelin Authentication
- 3. Spark DataFrame Zeppelin читать папки
- 4. spark-1.4 с установкой zeppelin
- 5. Конфигурация Apache Zeppelin с Spark
- 6. Запустить Spark на Apache Zeppelin
- 7. не может загрузить hivecontext в spark zeppelin
- 8. Использование Junit в оболочке Spark
- 9. Просмотр графика в Spark с GraphX и Zeppelin
- 10. Синхронизация данных о времени из CSV в Zeppelin и Spark
- 11. Spark 2.0 с Zeppelin 0.6.1 - SQLContext недоступен
- 12. Запуск Spark с дополнительным параметром через Zeppelin
- 13. Сохранение/экспорт результатов запроса Spark SQL Zeppelin
- 14. zeppelin with spark 1.5.2 автономная ошибка кластера
- 15. Zeppelin change port уже используется Spark Master
- 16. Использование pyspark в Zeppelin с python3 на Spark 2.1.0
- 17. Apache Zeppelin работает на Spark Cluster и YARN
- 18. Обработка большого текстового файла с использованием Zeppelin и Spark
- 19. Подключение к AWS Redshift с Zeppelin Spark 2.0 и Pyspark
- 20. Как устранить несоответствие версии AWS EMR Spark и Zeppelin?
- 21. Что такое RVA и VA?
- 22. Persisted Spark RDD недоступен в другой оболочке Spark
- 23. Как использовать TwitterUtils в оболочке Spark?
- 24. Как указать RDD, определенные в оболочке Spark?
- 25. Программно добавить jar в zeppelin spark interpreter через API
- 26. Потребляйте Kafka со Spark в Zeppelin, работающем на Docker
- 27. Как запросить Spark StreamingContext с искровым sql в zeppelin?
- 28. Zeppelin: Как перезапустить sparkContext в zeppelin
- 29. Zeppelin и SqlContext
- 30. Как использовать anaconda в zeppelin?