0
点赞
收藏
分享

微信扫一扫

hadoop相关问题


​​


​​

spark运行时出现Neither spark.yarn.jars nor spark.yarn.archive is set错误的解决办法(图文详解)

在hdfs上创建目录:

hdfs dfs -mkdir /lp/hadoop/spark_jars

上传spark的jars到HDFS上:

hdfs dfs -put /lp/hadoop/spark-2.3.0-bin-hadoop2.7/jars/* /lp/hadoop/spark_jars/

在spark的conf的spark-default.conf ,添加如下的配置

spark.yarn.jars=hdfs://127.0.0.1:9001/lp/hadoop/spark_jars/*.jar

Hive2:Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

问题找到了,原来Hive2需要hive元数据库初始化

schematool -dbType mysql -initSchema


举报

相关推荐

0 条评论