国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

云計算實驗 HDFS編程

這篇具有很好參考價值的文章主要介紹了云計算實驗 HDFS編程。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

【實驗作業(yè)1】自己動手實現(xiàn)HDFS Shell
基于已經(jīng)學(xué)習(xí)到的Hadoop API編程知識,自己動手實現(xiàn)一個簡單的HDFS Shell程序,程序名稱為HShell,要求能夠支持以下功能:
1.使用HShell -cp 本地路徑 HDFS路徑,將文件從Linux本地文件系統(tǒng)拷貝到HDFS指定路徑上。

2.使用HShell -rm 路徑刪除文件

3.使用HShell -rm -r 路徑刪除目錄

4.使用HShell -cp -r 本地目錄路徑 HDFS路徑,將目錄從Linux本地拷貝到HDFS指定路徑上。

5.使用HShell -list 路徑顯示某個文件的信息或者某個目錄的信息

6.使用HShell -mv 路徑 路徑移動文件或者重命名文件

7.使用HShell -find 文件名 目錄實現(xiàn)在目錄下遞歸查找某個文件名的文件。

實驗結(jié)果:
1.HShell -cp 功能的測試結(jié)果。在終端中查看后顯示拷貝成功。
基于已經(jīng)學(xué)習(xí)到的hadoop api編程知識,自己動手實現(xiàn)一個簡單的hdfs shell程序,程序,hdfs,hadoop,云計算
基于已經(jīng)學(xué)習(xí)到的hadoop api編程知識,自己動手實現(xiàn)一個簡單的hdfs shell程序,程序,hdfs,hadoop,云計算

實驗代碼:文章來源地址http://www.zghlxwxcb.cn/news/detail-715330.html

import com.sun.javaws.IconUtil;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.net.URI;
import java.util.Scanner;

public class HShell {
    public static void main(String[] args) {
        try {
            FileSystem fs = FileSystem.get(new URI("hdfs://master:9000"), new Configuration());
            Scanner sc = new Scanner(System.in);
            while(true)
            {
                String cmd1=sc.next();
                String cmd2,cmd3,cmd4,cmd5;
                if(cmd1.equals("HShell")){
                    cmd2=sc.next();
                    if(cmd2.equals("-cp")){
                        cmd3=sc.next();
                        cmd4=sc.next();
                        if(cmd3.equals("-r")){
                            cmd5=sc.next();
                            fs.copyFromLocalFile(false,true,new Path(cmd4),new Path(cmd5));
                            System.out.println("copy directory from "+cmd4+"to "+cmd5);
                        }
                        else
                        {
                            fs.copyFromLocalFile(new Path(cmd3),new Path(cmd4));
                            System.out.println("copy file from "+cmd3+"to "+cmd4);
                        }

                    }
                    else if(cmd2.equals("-rm")){
                        cmd3=sc.next();
                        if(cmd3.equals("-r")){
                            cmd4=sc.next();
                            if(fs.delete(new Path(cmd4),true)){
                                System.out.println("Directory "+ cmd4 +" has been deleted successfully!");
                            }
                        }
                        else
                        if(fs.delete(new Path(cmd3),false)){
                            System.out.println("File "+ cmd3 +" has been deleted successfully!");
                        }

                    }
                    else if(cmd2.equals("-list")){
                        cmd3=sc.next();
                        //FileStatus [] fileStatus=fs.listStatus(new Path(cmd3));
                        FileStatus filestatus =fs.getFileStatus(new Path(cmd3));
                        System.out.println(filestatus.toString());
                    }
                    else if(cmd2.equals("-mv")){
                        cmd3=sc.next();
                        cmd4=sc.next();
                        fs.moveFromLocalFile(new Path(cmd3),new Path(cmd4));
                        System.out.println("move file from "+cmd3+"to "+cmd4);
                    }
                    else if(cmd2.equals("-mv")){
                        cmd3=sc.next();
                        cmd4=sc.next();
                        fs.moveFromLocalFile(new Path(cmd3),new Path(cmd4));
                        System.out.println("move file from "+cmd3+"to "+cmd4);
                    }
                    else if(cmd2.equals("-find")){
                        cmd3=sc.next();
                        cmd4=sc.next();
                        fs.setWorkingDirectory(new Path(cmd4));
                        if(!fs.exists(new Path(cmd3)))
                        {
                            System.out.println(cmd3+" is not found");
                        }
                        else {
                            System.out.println(fs.getFileStatus(new Path(cmd3)).getPath());
                        }
                    }
                }


            }
        }catch(Exception e) {
            e.printStackTrace();
        }
    }
}

到了這里,關(guān)于云計算實驗 HDFS編程的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 大數(shù)據(jù)編程實驗二:熟悉常用的HDFS操作

    大數(shù)據(jù)編程實驗二:熟悉常用的HDFS操作

    實驗?zāi)康?1、理解HDFS在Hadoop體系結(jié)構(gòu)中的角色 2、熟悉使用HDFS操作常用的Shell命令 3、熟悉HDFS操作常用的Java API 實驗平臺 1、操作系統(tǒng):Windows 2、Hadoop版本:3.1.3 3、JDK版本:1.8 4、Java IDE:IDEA 前期:一定要先啟動hadoop ? 1、編程實現(xiàn)以下功能,并利用Hadoop提供的Shell命令完成相

    2024年02月08日
    瀏覽(27)
  • hadoop學(xué)習(xí)之hdfs學(xué)習(xí)

    hadoop學(xué)習(xí)之hdfs學(xué)習(xí)

    HDFS 文件系統(tǒng),可以說是分布式數(shù)據(jù)庫吧 結(jié)構(gòu)是 目錄樹 適用場景:一次寫入,多次讀出.好像不太支持改刪 優(yōu)點: 1.高容錯: 因為他會備份,所以一份出問題了,并不影響其他幾份 如果副本丟失后,定時恢復(fù).應(yīng)該是定時檢查然后恢復(fù) 每次啟動,DN向NN匯報備份的存儲情況.默認(rèn)每個6個小

    2024年02月16日
    瀏覽(20)
  • Hadoop學(xué)習(xí)筆記之HDFS

    Hadoop學(xué)習(xí)筆記之HDFS

    分布式存儲系統(tǒng) 支持海量數(shù)據(jù)的存儲,成百上千的計算機(jī)組成存儲集群,HDFS可以運行在低成本的硬件之上,具有的高容錯、高可靠性、高可擴(kuò)展性、高吞吐率等特征,非常適合大規(guī)模數(shù)據(jù)集上的應(yīng)用。 優(yōu)點 高容錯性 適合批處理 適合大數(shù)據(jù)處理 流式文件訪問 可構(gòu)建在廉價

    2024年02月07日
    瀏覽(18)
  • Hadoop學(xué)習(xí)-6-HDFS權(quán)限管理

    HDFS權(quán)限管理 認(rèn)證、授權(quán)、審計(/var/log/secure) HDFS權(quán)限管理 身份認(rèn)證,數(shù)據(jù)訪問權(quán)限認(rèn)證 UGO模型:每個文件和目錄都與一個owner、group關(guān)聯(lián) user:文件所有者 group:組內(nèi)其他成員 other:其他用戶組,最低權(quán)限 讀、寫、執(zhí)行權(quán)限 -/d(文件類型)rwx(owner權(quán)限)rwx(group權(quán)限)rwx(other權(quán)限

    2024年02月16日
    瀏覽(17)
  • Hadoop學(xué)習(xí)(一)——環(huán)境配置(特別順利版?。?!已經(jīng)排坑了)

    Hadoop學(xué)習(xí)(一)——環(huán)境配置(特別順利版?。?!已經(jīng)排坑了)

    軟件:VM Ware iso鏡像:CentOS7 Hadoop版本:Hadoop-3.3.3 目錄 一、創(chuàng)建虛擬機(jī)并安裝CentOS系統(tǒng) 二、靜態(tài)網(wǎng)絡(luò)配置 三、安裝Hadoop 1.下載Hadoop安裝包 2.下載JDK安裝包 3. 安裝過程 4.克隆虛擬機(jī)? 5.配置hoats文件和免密登錄 6.Hadoop集群節(jié)點配置 7.格式化并啟動節(jié)點 【好了之后一定要快照!

    2024年02月03日
    瀏覽(15)
  • 大數(shù)據(jù)技術(shù)原理與應(yīng)用實驗指南——HDFS JAVA API編程實踐

    大數(shù)據(jù)技術(shù)原理與應(yīng)用實驗指南——HDFS JAVA API編程實踐

    1. 實驗?zāi)康?(1) 熟練使用HDFS操作常用的Shell命令。 (2) 熟悉HDFS操作常用的Java API。 2. 實驗內(nèi)容 (1) 編程實現(xiàn)指定功能,并利用Hadoop提供的Shell命令完成相同任務(wù)(文件的上傳、下載、輸出、刪除、移動等操作)。 (2) 有余力編寫一個Java程序,讀取HDFS中的指定文件。

    2024年02月19日
    瀏覽(20)
  • 大數(shù)據(jù)編程實驗一:HDFS常用操作和Spark讀取文件系統(tǒng)數(shù)據(jù)

    大數(shù)據(jù)編程實驗一:HDFS常用操作和Spark讀取文件系統(tǒng)數(shù)據(jù)

    這是我們大數(shù)據(jù)專業(yè)開設(shè)的第二門課程——大數(shù)據(jù)編程,使用的參考書是《Spark編程基礎(chǔ)》,這門課跟大數(shù)據(jù)技術(shù)基礎(chǔ)是分開學(xué)習(xí)的,但這門課是用的我們自己在電腦上搭建的虛擬環(huán)境進(jìn)行實驗的,不是在那個平臺上,而且搭建的還是偽分布式,這門課主要偏向于有關(guān)大數(shù)據(jù)

    2024年04月10日
    瀏覽(26)
  • 0201hdfs集群部署-hadoop-大數(shù)據(jù)學(xué)習(xí)

    0201hdfs集群部署-hadoop-大數(shù)據(jù)學(xué)習(xí)

    下面我們配置下單namenode節(jié)點hadoop集群,使用vmware虛擬機(jī)環(huán)境搭建。vmware虛擬機(jī)的配置,在下面鏈接2有,或者自行查閱文檔。hadoop安裝包可到官網(wǎng)下載,當(dāng)前相關(guān)軟件環(huán)境如下: 軟件 版本 說明 hadoop 3.3.4 jar包 vmware 15.5 虛擬機(jī) centos 7.6 服務(wù)器操作系統(tǒng) xshell 6 遠(yuǎn)程連接 jdk 1.8

    2024年02月11日
    瀏覽(48)
  • 從零開始的Hadoop學(xué)習(xí)(二)| Hadoop介紹、優(yōu)勢、組成、HDFS架構(gòu)

    從零開始的Hadoop學(xué)習(xí)(二)| Hadoop介紹、優(yōu)勢、組成、HDFS架構(gòu)

    Hadoop是一個由Apache基金會所開發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。 主要解決,海量數(shù)據(jù)的存儲和海量數(shù)據(jù)的分析計算問題。 廣義上來說,Hadoop通常是指一個更廣泛的概念—Hadoop生態(tài)圈。 高可靠性:Hadoop底層維護(hù)多個數(shù)據(jù)副本,所以即使Hadoop某個計算元素或存儲出現(xiàn)故障,也不會導(dǎo)致

    2024年02月11日
    瀏覽(24)
  • hadoop生態(tài)圈-- 個人筆記學(xué)習(xí)05 HDFS優(yōu)化

    DFSClient和DN在一個節(jié)點 —— local reads,遠(yuǎn)程閱讀 Remote reads。 處理方式是一樣的 DN讀數(shù)據(jù) 通過RPC(TCP協(xié)議)把數(shù)據(jù)給DFSClient。DN在中間會做中轉(zhuǎn),處理簡單但是性能收影響 (Local read的情況下,會希望繞過DN直接讀取Data,這就是 短路 DFSClient自行打開文件讀取數(shù)據(jù),需要配置白名

    2024年02月13日
    瀏覽(59)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包