0
点赞
收藏
分享

微信扫一扫

Windows 下部署 hadoop spark环境

一、先在本地安装jdk

我这里安装的jdk1.8,具体的安装过程这里不作赘述

Windows 下部署 hadoop spark环境_hdfs

 

 

 

 

二、部署安装maven

下载maven安装包,并解压

Windows 下部署 hadoop spark环境_scala_02

 

 

 

 

设置环境变量,MAVEN_HOME=D:\SoftWare\Maven\apache-maven-3.6.1

Windows 下部署 hadoop spark环境_hdfs_03

 

 

 

在path路径添加;%MAVEN_HOME%\bin

 

打开本地终端验证

Windows 下部署 hadoop spark环境_scala_04

 

 

 

 

 

三、安装hadoop

先下载hadoop压缩包    下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-2.6.0/

下载后解压到本地

Windows 下部署 hadoop spark环境_hadoop_05

 

 

 

 

配置环境变量

 

计算机 –>属性 –>高级系统设置 –>高级选项卡 –>环境变量 –> 单击新建HADOOP_HOME

Windows 下部署 hadoop spark环境_hdfs_06

 

 

 HADOOP_HOME=D:\SoftWare\hadoop-2.6.0

 

 

Path环境变量下配置【%HADOOP_HOME%\bin;】变量

 

打开终端验证一下hadoop是否安装成功

Windows 下部署 hadoop spark环境_hdfs_07

 

 

 

 

给hadoop添加插件,添加到hadoop/bin目录下

Windows 下部署 hadoop spark环境_scala_08

 

 

 

修改hadoop的配置文件,配置文件在路径D:\SoftWare\hadoop-2.6.0\etc\hadoop下

修改core-site.xml

Windows 下部署 hadoop spark环境_hdfs_09

 

 

 

<configuration>
<!--指定namenode的地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>

<!--用来指定hadoop产生临时文件的目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/D:/SoftWare/hadoop-2.6.0/tmp/</value>
</property>

<!--用于设置检查点备份日志的最长时间-->
<property>
<name>fs.checkpoint.period</name>
<value>3600</value>
</property>
</configuration>

 

 

修改hdfs-site.xml

Windows 下部署 hadoop spark环境_hdfs_10

<configuration>
<!--指定hdfs保存数据的副本数-->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>

<!--指定hdfs中namenode的存储位置-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/D:/SoftWare/hadoop-2.6.0/tmp/dfs/namenode</value>
</property>

<!--指定hdfs中datanode的存储位置-->
<property>
<name>dfs.datanode.data.dir</name>
<value>/D:/SoftWare/hadoop-2.6.0/tmp/dfs/datanode</value>
</property>
</configuration>

 

 

修改mapred-site.xml

Windows 下部署 hadoop spark环境_hdfs_11

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

 

 

修改yarn-site.xml

Windows 下部署 hadoop spark环境_scala_12

 

 

<configuration>

<!-- Site specific YARN configuration properties -->

<!--nodemanager获取数据的方式是shuffle-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>

<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
</configuration>

 

 

格式化系统文件

hadoop/bin下执行 hdfs namenode -format

Windows 下部署 hadoop spark环境_hadoop_13

 

 

Windows 下部署 hadoop spark环境_hdfs_14

 

 

格式化完毕后启动hadoop,到hadoop/sbin下执行 start-dfs启动hadoop

Windows 下部署 hadoop spark环境_hdfs_15

 

 

这个时候会自动打开另外两个终端窗口,日志没有报错就行了,

Windows 下部署 hadoop spark环境_hdfs_16

 

 

 

打开浏览器访问 http://localhost:50070

Windows 下部署 hadoop spark环境_hdfs_17

 

 

 

 

 

 

  启动yarn

Windows 下部署 hadoop spark环境_hadoop_18

 

 Windows 下部署 hadoop spark环境_hadoop_19

 

 

打开浏览器访问  http://localhost:8088

Windows 下部署 hadoop spark环境_hadoop_20

 

 在hdfs创建文件夹

Windows 下部署 hadoop spark环境_hadoop_21

 

 

把本地的文本文件上传到hdfs

Windows 下部署 hadoop spark环境_scala_22

 

 

Windows 下部署 hadoop spark环境_hdfs_23

 

 

然后运行hadoop 提供的demo,计算单词数

Windows 下部署 hadoop spark环境_hadoop_24

 

 

Windows 下部署 hadoop spark环境_scala_25

 

 

Windows 下部署 hadoop spark环境_hadoop_26

 

 

四、安装scala

下载scala的安装包到本地

Windows 下部署 hadoop spark环境_hdfs_27

 

 双击

Windows 下部署 hadoop spark环境_hdfs_28

 

 

Windows 下部署 hadoop spark环境_hadoop_29

 

 

选择安装的路径

Windows 下部署 hadoop spark环境_hdfs_30

 

 

Windows 下部署 hadoop spark环境_hadoop_31

 

 

Windows 下部署 hadoop spark环境_scala_32

 

 

 

配置scala的环境变量

 

Windows 下部署 hadoop spark环境_scala_33

 

 

 

Windows 下部署 hadoop spark环境_hadoop_34

 

 

 

设置 Path 变量:找到系统变量下的"Path"如图,单击编辑。在"变量值"一栏的最前面添加如下的路径: %SCALA_HOME%\bin;%SCALA_HOME%\jre\bin;

Windows 下部署 hadoop spark环境_hdfs_35

 

 

设置 Classpath 变量:找到找到系统变量下的"Classpath"如图,单击编辑,如没有,则单击"新建":

  • "变量名":ClassPath
  • "变量值":.;%SCALA_HOME%\bin;%SCALA_HOME%\lib\dt.jar;%SCALA_HOME%\lib\tools.jar.;

Windows 下部署 hadoop spark环境_scala_36

 

 

 

检查环境变量是否设置好了:调出"cmd"检查。单击 【开始】,在输入框中输入cmd,然后"回车",输入 scala,然后回车,如环境变量设置ok,你应该能看到这些信息

Windows 下部署 hadoop spark环境_hdfs_37

 

 

 

五、安装spark

下载安装包

Windows 下部署 hadoop spark环境_hdfs_38

 

 

解压到需要安装的路径下

Windows 下部署 hadoop spark环境_hdfs_39

 

 

配置spark的环境变量

 Windows 下部署 hadoop spark环境_hadoop_40

 

 

将spark的bin路径添加到path中

Windows 下部署 hadoop spark环境_hdfs_41

 

 

cmd输入spark-shell

Windows 下部署 hadoop spark环境_hdfs_42

 

 

Windows 下部署 hadoop spark环境_scala_43

 

spark已经安装成功了!

 

 

六、在IDEA添加scala插件

Windows 下部署 hadoop spark环境_scala_44

 

 

Windows 下部署 hadoop spark环境_hadoop_45

 

举报

相关推荐

0 条评论