国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【hadoop】Java API連接(操作)HDFS

這篇具有很好參考價值的文章主要介紹了【hadoop】Java API連接(操作)HDFS。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

直接連接遇到的問題

直接運行下面的代碼,會出現(xiàn)權(quán)限不夠的問題

@Test
public void test1() throws Exception{
	//指定NameNode地址
	Configuration conf = new Configuration();
	conf.set("fs.defaultFS", "hdfs://192.168.157.111:9000");
		
	//創(chuàng)建一個HDFS的客戶端 DistributedFileSystem
	FileSystem client = FileSystem.get(conf);
		
	//創(chuàng)建目錄
	client.mkdirs(new Path("/folder1"));
		
	//關(guān)閉客戶端
	client.close();
}

錯誤:
org.apache.hadoop.security.AccessControlException: Permission denied: user=lenovo, access=WRITE, inode=“/folder1”:root:supergroup:drwxr-xr-x

下面使用四種方式來解決權(quán)限不夠的問題。

設(shè)置執(zhí)行的用戶為root用戶

環(huán)境變量 :HADOOP_USER_NAME

@Test
public void test3() throws Exception{
	System.setProperty("HADOOP_USER_NAME", "root");
		
	//指定NameNode地址
	Configuration conf = new Configuration();
	conf.set("fs.defaultFS", "hdfs://192.168.157.111:9000");
		
	//創(chuàng)建一個HDFS的客戶端 DistributedFileSystem
	FileSystem client = FileSystem.get(conf);
		
	//創(chuàng)建目錄
	client.mkdirs(new Path("/folder1"));
		
	//關(guān)閉客戶端
	client.close();
}

使用Java的-D參數(shù)來設(shè)置環(huán)境變量

@Test
public void test2() throws Exception{
	//指定NameNode地址
	Configuration conf = new Configuration();
	conf.set("fs.defaultFS", "hdfs://192.168.157.111:9000");
		
	//創(chuàng)建一個HDFS的客戶端 DistributedFileSystem
	FileSystem client = FileSystem.get(conf);
		
	//創(chuàng)建目錄
	client.mkdirs(new Path("/folder1"));
		
	//關(guān)閉客戶端
	client.close();
}

根據(jù)下面的步驟使用Java的-D參數(shù)

【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs
【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs
【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs
【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs

使用chmod的命令賦予權(quán)限

在linux上, 執(zhí)行 hdfs dfs -chmod 777 /folder2
將讀寫執(zhí)行的權(quán)限都給到/folder2

@Test
public void test4() throws Exception{
	//指定NameNode地址
	Configuration conf = new Configuration();
	conf.set("fs.defaultFS", "hdfs://192.168.157.111:9000");
		
	//創(chuàng)建一個HDFS的客戶端 DistributedFileSystem
	FileSystem client = FileSystem.get(conf);
	
	//創(chuàng)建目錄
	client.mkdirs(new Path("/folder2/folder3"));
		
	//關(guān)閉客戶端
	client.close();
}

修改參數(shù)配置

先停止HDFS
【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs
進入HADOOP_HOME/etc/hadoop路徑,編輯hdfs-site.xml文件

【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs

<property>
		<name>dfs.permissions</name>
		<value>false</value>
</property>

【hadoop】Java API連接(操作)HDFS,hadoop,hadoop,java,hdfs

保存后再啟動HDFS,但注意在啟動后,等待一段時間在去進行操作,因為HDFS啟動的時候有一段時間是安全模式,所以在安全模式下是操作不了HDFS的。文章來源地址http://www.zghlxwxcb.cn/news/detail-599582.html

到了這里,關(guān)于【hadoop】Java API連接(操作)HDFS的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Java Api操作HDFS

    Java Api操作HDFS

    鏈接:https://pan.baidu.com/s/1yUnJh-j9EKmL2hPF8biAtg?pwd=dv12 提取碼:dv12 之前配置的 Hadoop 的 core-site.xml 文件中的配置的 fs.defaultFS 地址是 hdfs://localhost:9000 ,然后后面 Java 連不上 hdfs 9000 端口也是打開了,但就是連不上 9870 端口也能正常訪問 防火墻也關(guān)閉了,也不行 查閱諸多資料發(fā)現(xiàn)問

    2024年04月28日
    瀏覽(15)
  • HDFS Java API 操作

    HDFS Java API 操作

    Hadoop是使用Java語言編寫的,因此使用Java API操作Hadoop文件系統(tǒng),HDFS Shell本質(zhì)上就是對Java API的應(yīng)用,通過編程的形式,操作HDFS,其核心是使用HDFS提供的Java API構(gòu)造一個訪問客戶端對象,然后通過客戶端對象對HDFS上的文件進行操作(增,刪,改,查) 1、hdfs 常見類與接口 Hadoop

    2023年04月12日
    瀏覽(15)
  • HDFS 的Java API操作

    HDFS 的Java API操作

    1、環(huán)境搭建 基于Linux的Hadoop(2.7.4)集群 windowsp平臺的hadoop JDK hadoop和jdk的環(huán)境變量 IDEA 2、下載windowsp平臺的hadoop,版本要與Linux下的一致 可以使用下載的Linux平臺的Hadoop解壓。然后在/bin目錄下添加Windows相關(guān)依賴winutils.exe、winutils.pdb、hadoop.dll 然后在目錄hadoopwhadoop-2.7.4etchad

    2024年02月04日
    瀏覽(11)
  • Java API 操作HDFS文件

    使用JavaAPI操作hdfs 文件的常用操作代碼 1.創(chuàng)建目錄 2.創(chuàng)建文件 3.重命名 4.上傳本地文件到hdfs 5.查看某個目錄下的所有文件 6.查看文件塊信息 7.文件讀寫 8.文件上傳 9.文件下載 10.使用字節(jié)流讀取數(shù)據(jù) 11.刪除文件 12.刪除文件夾 13.自定義數(shù)據(jù)輸入流

    2024年02月11日
    瀏覽(18)
  • Java 操作 Hadoop 集群之 HDFS 的應(yīng)用案例詳解

    Java 操作 Hadoop 集群之 HDFS 的應(yīng)用案例詳解

    注意:本文內(nèi)容基于 Hadoop 集群搭建完成基礎(chǔ)上: Linux 系統(tǒng) CentOS7 上搭建 Hadoop HDFS集群詳細步驟 本文的內(nèi)容是基于下面前提: Hadoop 集群搭建完成并能正常啟動和訪問 Idea 和 Maven 分別安裝完成 需要有 JavaSE 基礎(chǔ)和熟悉操作hadoop 的 hdfs dfs 命令 Maven 及 idea 中 Maven 相關(guān)配置 本地

    2024年04月16日
    瀏覽(46)
  • 大數(shù)據(jù)學習:使用Java API操作HDFS

    大數(shù)據(jù)學習:使用Java API操作HDFS

    一、創(chuàng)建Maven項目 二、添加依賴 在 pom.xml 文件里添加 hadoop 和 junit 依賴 三、創(chuàng)建日志屬性文件 在 resources 目錄里創(chuàng)建 log4j.properties 文件 代碼 四、在HDFS上創(chuàng)建文件 在 /ied01 目錄創(chuàng)建 hadoop2.txt 文件 創(chuàng)建 net.xxr.hdfs 包,在包里創(chuàng)建 CreateFileOnHDFS 類 編寫 create1() 方法 結(jié)果 利用H

    2024年02月08日
    瀏覽(23)
  • Hadoop 使用Linux操作系統(tǒng)與Java熟悉常用的HDFS操作

    Hadoop 使用Linux操作系統(tǒng)與Java熟悉常用的HDFS操作

    注意看評論區(qū)獲取完整代碼資料 目錄 一、實驗?zāi)康?二、實驗平臺 三、實驗步驟 理解HDFS在Hadoop體系結(jié)構(gòu)中的角色; 熟練使用HDFS操作常用的Shell命令; 熟悉HDFS操作常用的Java API。 操作系統(tǒng):Linux(建議Ubuntu16.04); Hadoop版本:2.7.1; JDK版本:1.8或以上版本; Java IDE:Eclipse。

    2024年02月03日
    瀏覽(22)
  • 【Hadoop】HDFS API 操作大全

    【Hadoop】HDFS API 操作大全

    ?? 個人主頁——??開著拖拉機回家_Linux,大數(shù)據(jù)運維-CSDN博客 ????? ???? 希望本文能夠給您帶來一定的幫助??文章粗淺,敬請批評指正!???? ???????????????? ?????????????? ???????????????????????? ?????? ???????? 感謝點贊和關(guān)注 ,

    2024年02月07日
    瀏覽(18)
  • Hadoop HDFS的API操作

    Hadoop HDFS的API操作

    hadoop的 Windows依賴文件夾,拷貝hadoop-3.1.0到非中文路徑(比如d:)。 配置HADOOP_HOME環(huán)境變量 配置Path環(huán)境變量。 不能放在包含有空格的目錄下,cmd 輸入hadoop顯示此時不應(yīng)有 hadoop-3.0.0bin。我放在E:Program Files (x86) hadoop-3.0.0bin中,就出現(xiàn)錯誤 驗證Hadoop環(huán)境變量是否正常。雙擊

    2024年02月05日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包