腳步

我們首先獲得了 hive2 jar,並通過 java 來檢查連線。然後我們意識到要使用的罐子是:

  1. Hadoop 的共同 -2.7.0-MAPR-1703.jar
  2. 蜂房共同 -2.1.1-MAPR-1703-r1.jar
  3. 蜂巢 -JDBC-2.1.1-MAPR-1703-R1-standalone.jar

如果你正在使用 SOLR Cloud,那麼這些 jar 將被傳輸到安裝了 SOLR 的 VM,然後在 solrconfig.xml 中引用,如下所示:

在 solrconfig.xml 中匯入部件

<lib dir =“/ users / path_to_folder_with_jar”regex =“。*。jar”/>

那麼這是最重要的部分:你的 hive 連線字串:

連線部分

<dataConfig> <dataSource name =ABCdriver =“org.apache.hive.jdbc.HiveDriver”url =“jdbc:hive2://….connectionString”user =usernamepassword =password/>

<document name =“collection_name”>

<entity name =“collection_lookup”query =“select unique_key as table from table_name”>

</ entity>

</ document>

</ dataConfig>

通過 zookeeper 推送配置

server / scripts / cloud-scripts / zkcli.sh -zkhost host1:2181,host2:2181 -cmd upconfig -confname configName -confdir server / solr / configsets / folder /

轉到 http:// host:8983 / solr /#/ collection_name / dataimport // dataimport 然後檢查除錯並首先檢查 10 或 20 條記錄。

你將看到資料流動。CH !! 如果你想進一步討論我可以提供幫助,但我認為應該這樣做。它對我有用。