
- 蜂巢3.1.2
- Hadoop 3.2.1
當我在命令列中運行 hive 時,它告訴我以下錯誤訊息:
which: no hbase in (/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin)
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop/hadoop3/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Exception in thread "main" java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)
at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)
at org.apache.hadoop.mapred.JobConf.setJar(JobConf.java:536)
at org.apache.hadoop.mapred.JobConf.setJarByClass(JobConf.java:554)
at org.apache.hadoop.mapred.JobConf.<init>(JobConf.java:448)
at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:5141)
at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:5099)
at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:97)
at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:81)
at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:699)
at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:683)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.util.RunJar.run(RunJar.java:323)
at org.apache.hadoop.util.RunJar.main(RunJar.java:236)
我該怎麼辦?
答案1
看起來這是由 Hadoop 在 2019 年中期更新其 Guava 依賴項觸發的:HADOOP-15960。該變更已在 3.0.4、3.1.3 和 3.2.1 中發布。
lib/guava-*.jar
Hive 不僅在 中,而且在 中也提供了自己的 Guava 不相容版本,lib/hive-exec-*.jar
它重新打包了大量外部函式庫。因為 Hive 沒有 就無法工作hive-exec
,所以我們不能直接刪除它並從 Hadoop 獲取 Guava JAR。
hive-exec
的「fat jar」格式至少從 2011 年起就一直引起問題,但到目前為止他們還沒有對此採取太多措施:
- https://issues.apache.org/jira/browse/HIVE-2424
- https://issues.apache.org/jira/browse/HIVE-3017
- https://issues.apache.org/jira/browse/HIVE-3040
hive-exec
他們最終合併了對 Guava 進行著色的更改(但不是其他庫?)HIVE-22126,但修復版本是 4.0.0,尚未發布。
此時,看起來我們的選擇是:
- 使用 Hadoop 3.0.3、3.2.0 或 3.1.2,即 HADOOP-15960 之前的最後版本。但請注意,先前的 Guava 版本存在已知漏洞:CVE-2018-10237。
- 從原始碼建立 Hive 主幹。
答案2
rm /home/hadoop/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar
因為類別衝突移除了一個線程,但是還有另一個問題。 java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava / lang / String; Ljava / lang / Object; )V