脚步

我们首先获得了 hive2 jar,并通过 java 来检查连接。然后我们意识到要使用的罐子是:

  1. Hadoop 的共同 -2.7.0-MAPR-1703.jar
  2. 蜂房共同 -2.1.1-MAPR-1703-r1.jar
  3. 蜂巢 -JDBC-2.1.1-MAPR-1703-R1-standalone.jar

如果你正在使用 SOLR Cloud,那么这些 jar 将被传输到安装了 SOLR 的 VM,然后在 solrconfig.xml 中引用,如下所示:

在 solrconfig.xml 中导入部件

<lib dir =“/ users / path_to_folder_with_jar”regex =“。*。jar”/>

那么这是最重要的部分:你的 hive 连接字符串:

连接部分

<dataConfig> <dataSource name =ABCdriver =“org.apache.hive.jdbc.HiveDriver”url =“jdbc:hive2://….connectionString”user =usernamepassword =password/>

<document name =“collection_name”>

<entity name =“collection_lookup”query =“select unique_key as table from table_name”>

</ entity>

</ document>

</ dataConfig>

通过 zookeeper 推送配置

server / scripts / cloud-scripts / zkcli.sh -zkhost host1:2181,host2:2181 -cmd upconfig -confname configName -confdir server / solr / configsets / folder /

转到 http:// host:8983 / solr /#/ collection_name / dataimport // dataimport 然后检查调试并首先检查 10 或 20 条记录。

你将看到数据流动。CH !! 如果你想进一步讨论我可以提供帮助,但我认为应该这样做。它对我有用。