Суперсет с Apache Spark на Hive

У меня Apache SuperSet установлен через Docker на моем локальном компьютере. У меня есть отдельный производственный кластер Spark из 20 узлов с Hive в качестве Meta-Store. Я хочу, чтобы мой SuperSet мог подключаться к Hive и выполнять запросы через Spark-SQL. Для подключения к Hive я попробовал следующее

Добавить базу данных -> URI SQLAlchemy *

hive://hive@<hostname>:10000/default

но при проверке соединения выдает ошибку. Я считаю, что мне нужно провести туннелирование, но я не знаю, как это сделать. У меня также есть сберегательный сервер Hive.

Пожалуйста, дайте мне знать, как действовать


person CSUNNY    schedule 14.03.2020    source источник


Ответы (1)


Какую ошибку вы получаете? Хотя в документации об этом не упоминается, лучший способ предоставить URL-адрес подключения - в следующем формате:

hive://<url>/default?auth=NONE    ( when there is no security )
hive://<url>/default?auth=KERBEROS
hive://<url>/default?auth=LDAP
person Nilanjan Sarkar    schedule 13.06.2020