前言
需求背景是java代碼提交服務器測試周期流程太慢,需要一種能直接在windows本地部署的相關組件。分析項目現(xiàn)有大數(shù)據(jù)技術棧,包括hadoop、hive和spark(sparksql),存儲和計算都依賴windows系統(tǒng)。期中hive保存在本地的hadoop上,spark提交在hadoop的yarn上。
· hadoop on windows
· hive on windows
· spark on windows(提交方式是spark on yarn)
注意事項:
在spark官網(wǎng)選擇spark版本的時候確定對應支持的hadoop版本,然后選擇對應hadoop的winutils-master的版本。
Spark下載路徑:https://spark.apache.org/downloads.html
Hadoop下載路徑:https://archive.apache.org/dist/hadoop/common/
Scala下載路徑:https://www.scala-lang.org/download/all.html
Winutils-master下載路徑:https://github.com/cdarlint/winutils
1. hadoop on windows
1.1 安裝jdk
jdk安裝省略了
Win+R輸入cmd,再鍵入java -version,確認jdk安裝是否成功
1.2 安裝hadoop
1.2.1 解壓
解壓下載的包到一個無中文無空格的路徑下
1.2.2 備用目錄
新建一個無中文無空格的文件夾,作為hadoop的namenode地址和datanode地址
1.2.3 修改配置
分別修改解壓包下~\etc\hadoop的相關配置文件
-
hdfs-site.xml
-
yan-site.xml
-
mapred-site.xml
-
core-site.xml
-
hadoop-env.cmd
1.2.4 安裝winutils-master
解壓winutils-master包,找到對應hadoop依賴版本的并進入bin目錄將這個文件夾里面的文件整體復制到hadoop的安裝路徑~/bin下
1.2.5 格式化namenode
以管理員啟動cmd.exe,鍵入hdfs namenode -formet,再確認Y
1.2.6 啟動hadoop
以管理員啟動cmd.exe,進入到hadoop加壓路徑~/sbin,執(zhí)行start-all,當再彈出四個窗口并無報錯的時候即啟動成功
-
namenode
-
datanode
-
nodemanager
-
resourcemanager
1.2.7 web-ui登陸hadoop hdfs
我安裝的是3.0版本的hadoop,所以登陸頁面是https://localhost:9870,如果是2.0版本的hadoop,登陸頁面是https://localhost:50070
2. spark on windows
2.1 安裝scala
spark是scala語言開發(fā)的,依賴語言環(huán)境。類似于安裝jdk,Win+R輸入cmd,再鍵入scala -version,確認scala安裝是否成功
2.2 安裝spark
2.2.1 解壓
解壓spark安裝包到一個無中文無空格的路徑下
2.2.2 環(huán)境變量
配置spark環(huán)境變量,類似于配置jdk變量。需要配置SPARK_HOME和PathSPARK_HOME=spark解壓安裝路徑
Path新增一個%SPARK_HOME%\bin
2.2.3 spark配置
修改spark-env.sh添加以下配置,這一步修改的意義是為了讓spark的提交走hadoop的yarnYARN_CONF_DIR=hadoop安裝路徑/etc/hadoop
2.3 啟動spark-shell
執(zhí)行spark-shell啟動
2.4 登陸web-ui
管理頁面,https://localhost:4040文章來源:http://www.zghlxwxcb.cn/news/detail-605182.html
3. hive on windows
hive on windows 需要安裝本地化mysql 忒麻煩了。但是hive on windows 其實很好實現(xiàn),這里就偷個懶省略了。
文章來源地址http://www.zghlxwxcb.cn/news/detail-605182.html
到了這里,關于hadoop本地化windows部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!