国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

windows hadoop 開發(fā)測試版快速搭建

這篇具有很好參考價值的文章主要介紹了windows hadoop 開發(fā)測試版快速搭建。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、hadoop 包下載

  • 清華大學(xué)開源軟件鏡像站下載(速度較快,但版本不全)
  • 官方各個版本

下載后解壓。
添加環(huán)境變量 HADOOP_HOME。并將 %HADOOP_HOME%/bin、%HADOOP_HOME%/sbin 添加到 path 中。

ps:本文使用的是 hadoop-3.3.2

2、windows 環(huán)境準(zhǔn)備

windows 所需文件:winutils.exe、hadoop.dll
可從 GitHub 下載(不全)。

  • winutils.exe 放到 %HADOOP_HOME%/bin 下面。
  • hadoop.dll 放到 windows\system32 下面(也可以放到 %HADOOP_HOME%/bin 下面,加到 path 環(huán)境變量就行)。

3、配置

(可選)修改 %HADOOP_HOME%/etc/hadoop 下面的腳本 hadoop-env.cmd,修改 JAVA_HOME 為本機jdk安裝時配置的目錄。

修改 %HADOOP_HOME%/etc/hadoop 下面的配置文件:core-site.xml、 hdfs-site.xml、 mapred-site.xml、 yarn-site.xml

  • core-site.xml
<configuration>

	<property>
		<name>fs.default.name</name>
		<value>hdfs://0.0.0.0:8020</value>
	</property>

    <!--用來指定使用hadoop時產(chǎn)生文件的存放目錄, -->
    <property>
        <name>hadoop.tmp.dir</name> 
        <value>/D:/Programs/hadoop-3.3.2/temp</value>
    </property>
</configuration>
  • hdfs-site.xml
<configuration>
    <!--指定hdfs保存數(shù)據(jù)的副本數(shù)量-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <!--指定hdfs中namenode的存儲位置-->
    <property>
        <name>dfs.namenode.name.dir</name> 
        <value>/D:/Programs/hadoop-3.3.2/data/namenode</value>
    </property>
    <!--指定hdfs中datanode的存儲位置-->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/D:/Programs/hadoop-3.3.2/data/datanode</value>
    </property>
		
	<property>
        <name>dfs.http.address</name>
        <value>0.0.0.0:50070</value>
    </property>
</configuration>
  • mapred-site.xml
<configuration>
	<!--告訴hadoop以后MR(Map/Reduce)運行在YARN上-->
	<property>
		<description>The hostname of the RM.</description>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>
  • yarn-site.xml
<configuration>

<!-- Site specific YARN configuration properties -->

     <!--nomenodeManager獲取數(shù)據(jù)的方式是shuffle-->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <!--指定 ResourceManager 的地址-->     
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>0.0.0.0</value>
    </property> 
    <property>
    	<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    	<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>
    <!--Yarn打印工作日志-->    
    <property>    
        <name>yarn.log-aggregation-enable</name> 
        <value>true</value>    
    </property>

</configuration>

第一次運行前,需要格式化HDFS:

hadoop namenode -format

運行:start-dfs.cmd、start-yarn.cmd(需要以管理員運行 cmd);(或 start-all.cmd )

然后訪問:

  • http://localhost:8088 查看集群狀態(tài)
  • http://localhost:50070 訪問hdfs
  • http://localhost:19888 查看JobHistory(需要先啟動jobHistoryserver)

4、一些報錯

未指定 hadoop.tmp.dir(core-site.xml) :

2023-07-03 11:05:24,913 INFO localizer.ResourceLocalizationService: usercache path : file:/tmp/hadoop-a/nm-local-dir/usercache_DEL_1688353524257
2023-07-03 11:05:24,945 WARN nativeio.NativeIO: NativeIO.getStat error (3): 系統(tǒng)找不到指定的路徑。
 -- file path: tmp/hadoop-a/nm-local-dir/filecache
2023-07-03 11:05:25,013 WARN nativeio.NativeIO: NativeIO.getStat error (3): 系統(tǒng)找不到指定的路徑。
 -- file path: tmp/hadoop-a/nm-local-dir/usercache
2023-07-03 11:05:25,072 WARN nativeio.NativeIO: NativeIO.getStat error (3): 系統(tǒng)找不到指定的路徑。
 -- file path: tmp/hadoop-a/nm-local-dir/nmPrivate

非管理員運行 start-yarn.cmd :

org.apache.hadoop.yarn.exceptions.YarnRuntimeException: Failed to setup local dir D:/Programs/hadoop-3.3.2/temp/nm-local-dir, which was marked as good.

填指定 ip 時,則 只會監(jiān)聽該 ip。地址填 0.0.0.0 時,能夠監(jiān)聽本機其他 ip。

如 yarn-site.xml 中的 yarn.resourcemanager.hostname。填 10.10.3.16 時,只能通過 10.10.3.16:8088 訪問resourcemanager的webui,使用 localhost:8088 無法訪問。文章來源地址http://www.zghlxwxcb.cn/news/detail-601884.html

到了這里,關(guān)于windows hadoop 開發(fā)測試版快速搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 手機技巧:安卓微信8.0.45測試版功能來了

    手機技巧:安卓微信8.0.45測試版功能來了

    目錄 一、更新介紹 二、本次功能更新介紹 2.1 小程序界面優(yōu)化 2.2 小程序個性化推薦支持關(guān)閉 三、其他實用的微信使用長按小技巧 3.1、長按對話框 3.2、長按搜索 3.3、長按相冊 3.4、長按視頻 3.5、長按表情包(能開啟2個技巧) 3.6、長按音頻文件 3.7、長按好友頭像 四、軟件下

    2024年02月04日
    瀏覽(24)
  • 升級iOS 17測試版后如何降級?iOS17降級教程

    升級iOS 17測試版后如何降級?iOS17降級教程

    對于已經(jīng)升級到 iOS 17 測試版的用戶,如果在體驗過程中,感覺到并不是那么穩(wěn)定,例如出現(xiàn)應(yīng)用程序不適配、電池續(xù)航下降、功能無法正常啟用等問題,想要進行降級操作,可以參考本教程。 降級前注意事項: 1.由于 iOS 系統(tǒng)限制,降級操作時無法直接保留數(shù)據(jù),否則刷機

    2024年02月16日
    瀏覽(18)
  • CSDN評論區(qū)粉絲抽獎程序 測試版1.1【python萌新自制】

    CSDN評論區(qū)粉絲抽獎程序 測試版1.1【python萌新自制】

    為了鞏固所學(xué)的知識,作者嘗試著開始發(fā)布一些學(xué)習(xí)筆記類的博客,方便日后回顧。當(dāng)然,如果能幫到一些萌新進行新技術(shù)的學(xué)習(xí)那也是極好的。作者菜菜一枚,文章中如果有記錄錯誤,歡迎讀者朋友們批評指正。 前些天發(fā)現(xiàn)了一個巨牛的人工智能學(xué)習(xí)網(wǎng)站,通俗易懂,風(fēng)趣

    2024年02月09日
    瀏覽(22)
  • 【小程序“600002“】現(xiàn)象:小程序測試版能正常的進行頁面跳轉(zhuǎn),正式版不能進行頁面跳轉(zhuǎn)

    【小程序“600002“】現(xiàn)象:小程序測試版能正常的進行頁面跳轉(zhuǎn),正式版不能進行頁面跳轉(zhuǎn)

    記錄:(in promise) MiniProgramError {“errno”:600002,“errMsg”:“request:fail url not in domain list”} Object 小程序報錯 正式版報此錯誤測試版不報錯且能正常進行頁面跳轉(zhuǎn). 解決方案: 官方文檔查看錯誤碼含義:官方文檔 解決方法:1.小程序訪問后臺地址換成域名去訪問(忌:ip+端口) 2.在小程序公

    2024年02月13日
    瀏覽(25)
  • 使用一鍵安裝工具快速搭建 ESP-IDF 開發(fā)環(huán)境 (Windows)

    使用一鍵安裝工具快速搭建 ESP-IDF 開發(fā)環(huán)境 (Windows)

    我們收到用戶對 ESP-IDF SDK 軟件開發(fā)環(huán)境感到搭建難、門檻高的反饋。為解決用戶在此方面的問題。為此,我們推出本期教程介紹在 Windows 操作系統(tǒng)下使用一鍵安裝工具快速搭建 ESP-IDF 開發(fā)環(huán)境。 您可以觀看下面的教程視頻,也可以閱讀接下來本篇的圖文教程。 【樂鑫教程】

    2024年02月09日
    瀏覽(29)
  • 使用 VS Code 快速搭建 ESP-IDF 開發(fā)環(huán)境 (Windows、Linux、MacOS)

    使用 VS Code 快速搭建 ESP-IDF 開發(fā)環(huán)境 (Windows、Linux、MacOS)

    ESP-IDF 是樂鑫官方的物聯(lián)網(wǎng)開發(fā)框架,適用于 ESP32、ESP32-S、ESP32-C 和 ESP32-H 系列 SoC。它基于 C/C++ 語言提供了一個自給自足的 SDK,方便用戶在這些平臺上開發(fā)通用應(yīng)用程序,并集成了大量的軟件組件,包括 RTOS、外設(shè)驅(qū)動程序、網(wǎng)絡(luò)棧、多種協(xié)議實現(xiàn)技術(shù)以及常見應(yīng)用程序的使

    2024年02月14日
    瀏覽(29)
  • Hadoop——Windows系統(tǒng)下Hadoop單機環(huán)境搭建

    Hadoop——Windows系統(tǒng)下Hadoop單機環(huán)境搭建

    為了便于開發(fā),我在本地Windows系統(tǒng)進行Hadoop搭建。 我使用的版本:hadoop-2.7.0。其他版本也可,搭建流程基本一樣,所以參考這個教程一般不會有錯。 1、下載安裝包和插件 安裝包hadoop-2.7.0.tar.gz 必要插件winutils-master 2、解壓安裝包 使用管理員身份運行cmd,到安裝包對應(yīng)目錄下

    2024年02月09日
    瀏覽(23)
  • 【hadoop】windows上hadoop環(huán)境的搭建步驟

    【hadoop】windows上hadoop環(huán)境的搭建步驟

    在大數(shù)據(jù)開發(fā)領(lǐng)域中,不得不說說傳統(tǒng)經(jīng)典的hadoop基礎(chǔ)計算框架。一般我們都會將hadoop集群部署在服務(wù)器上,但是作為一個資深搬磚人,我們本地環(huán)境也需要一個開發(fā)hadoop的開發(fā)環(huán)境。那么,今天就安排一個在windows上搭建一個hadoop環(huán)境。 docker部署hadoop請移步 下載hadoop安裝包

    2024年02月12日
    瀏覽(14)
  • hadoop集群搭建、spark集群搭建、pyspark搭建(linux+window)

    hadoop集群搭建、spark集群搭建、pyspark搭建(linux+window)

    本文記錄學(xué)習(xí)過程中Hadoop、zookeeper、spark集群搭建,主要為pyspark庫服務(wù)(具體為window上pyspark環(huán)境和pyspark庫,linux上spark框架、pyspark應(yīng)用程序、pyspark環(huán)境和pyspark庫)。pyspark環(huán)境是用anaconda3搭建的環(huán)境。pyspark應(yīng)用程序,是安裝spark集群里面自帶的,提供一個python解釋器環(huán)境來執(zhí)

    2024年01月22日
    瀏覽(28)
  • 2 | Window 搭建單機 Hadoop 和Spark

    2 | Window 搭建單機 Hadoop 和Spark

    搭建單機 Hadoop 和 Spark 環(huán)境可以學(xué)習(xí)和測試大數(shù)據(jù)處理的基礎(chǔ)知識。在 Windows 操作系統(tǒng)上搭建這兩個工具需要一些配置和設(shè)置,下面是一個詳細(xì)的教程: 注意: 在開始之前,請確保你已經(jīng)安裝了 Java 開發(fā)工具包(JDK),并且已經(jīng)下載了 Hadoop 和 Spark 的最新版本。你可以從官

    2024年02月10日
    瀏覽(13)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包