国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Win10 IDEA連接虛擬機中的Hadoop集群(進來保你成)

這篇具有很好參考價值的文章主要介紹了Win10 IDEA連接虛擬機中的Hadoop集群(進來保你成)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

引言:

環(huán)境:

前提:

實現(xiàn):

測試

結(jié)語:

問題

引言:

? ? ? ? 分布式課程要求使用IDE(IDEA、Eclipse)來編寫程序直接對Hadoop集群進行文件操作,目前關(guān)于IDEA連接Hadoop集群的教程,良莠不齊,根據(jù)多個教程完成了IDEA連接Hadoop集群?,F(xiàn)在將完整的流程陳列如下。

????????如果覺得文章組織形式不好,或者有看不懂的地方請給我留言。

環(huán)境:

? ? ? ? windows10 (IDEA 2021.1.3)

? ? ? ? VMware 16 workstation pro(安裝可以搜教程,比較容易)

? ? ? ? Linux Server(Hadoop-2.7.7集群?1 master 3 slaves)

集群搭建可以看Hadoop集群搭建(超級詳細)_阮哈哈哈哈哈的博客-CSDN博客

idea連接Hadoop集群可以看idea連接本地虛擬機Hadoop集群運行wordcount - 徐春暉 - 博客園 (cnblogs.com)

前提:

? ? ? ?1.通過虛擬機完成了完全分布式Hadoop集群的搭建,在master節(jié)點中使用start-all.sh啟動Hadoop集群,并使用jps得到下面的輸出,表示Hadoop集群搭建成功。

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

????????當然也可以通過Hadoop提供的web界面查看,一般來說我們在瀏覽器中輸入http://192.168.xx.101:50070訪問。(注意:有的時候我們確實能夠跳轉(zhuǎn)到該界面,但是我們還需要查看datanode是否正常運行,因為存在這樣的情況,datanode配置失敗,但是Hadoop集群也能成功啟動,但是后面的文件操作是無法正常運行的)

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 點擊Datanodes出現(xiàn)上面的界面表示配置好了Hadoop集群。

? ? ? ? 2.安裝好了IDEA開發(fā)工具

實現(xiàn):

? ? ? ? 在window上配置好Hadoop

? ? ? ? 1.下載hadoop-2.7.7.tar.gz文件到window。各版本Hadoop,我選擇的是2.7.7

Hadoop是跨平臺的,不用擔心Linux與windows不兼容,但是需要注意的是在hadoop-2.7.7/etc/hadoop/hadoop-env.shJAVA_HOME需要修改為window下jdk的路徑。? ? ? ?

? ? ? ? 2. 選擇一個空目錄將hadoop-2.7.7.tar.gz解壓

????????idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 3. 將hadoop-2.7.7添加到環(huán)境變量中

變量名:HADOOP_HOME

變量值:E:\xx\xx\xx\hadoop-2.7.7 (先看下面的圖再復(fù)制)

%JAVA_HOME%\bin

%JAVA_HOME%\jre\bin(先看下面的圖再復(fù)制)

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 4.使用命令行查看環(huán)境變量是否配置成功

hadoop version

? ? ? ? 5.安裝jdk(JDK 8 所有版本)

? ? ? ? 解壓到目錄中,添加環(huán)境變量(和Hadoop配置相似,可以上去再看一下)

變量名:JAVA_HOME

變量值:E:\ProgramSoftware\java\JAVAHOME\jdk1.8.0_162

變量值:%JAVA_HOME%\bin

變量值:%JAVA_HOME%\jre\bin

? ? ? ? 使用java -version、javac驗證(注意上面bin以及\jre\bin都要配置,不然會出現(xiàn)hadoop找不到JAVA_HOME的問題)

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 6. 將winutil.exe放置到hadoop-2.7.7\bin\目錄下面。(wintil.ext下載,GitHub中選一個比自己hadoop版本相同或者說高一點的版本)

? ? ? ? 7. 將winutil.exe以及hadoop-2.7.7\bin\hadoop.dll放置到C:\Windows\System32中

? ? ? ? 8. 使用idea打開一個空的目錄

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 9. 添加maven,點擊Add Framwork Support?

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 添加maven

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 添加成功后會出現(xiàn)main與test

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 10.配置maven,將Linux虛擬機中hadoop-2.7.7\etc\core-site.xmlhadoop-2.7.7\etc\hdfs-site.xml復(fù)制到resource下(可以通過log4j.properties配置控制臺日志的輸出等級,可以自己上網(wǎng)查詢其他的輸出等級策略)

log4j.rootLogger=debug,stdout,R 
log4j.appender.stdout=org.apache.log4j.ConsoleAppender 
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout 
log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n 
log4j.appender.R=org.apache.log4j.RollingFileAppender 
log4j.appender.R.File=mapreduce_test.log 
log4j.appender.R.MaxFileSize=1MB 
log4j.appender.R.MaxBackupIndex=1 
log4j.appender.R.layout=org.apache.log4j.PatternLayout 
log4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n 
log4j.logger.com.codefutures=DEBUG

???????

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 11. 配置pom.xml

????????初始狀態(tài)

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 添加下方的內(nèi)容到pom.xml中,添加后idea會開始猛烈地加載需要的資源文件,下載完成后原先的紅色pom.xml會變成藍色(注意:hadoop的版本要和自己的版本一樣

<properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <maven.compiler.source>1.8</maven.compiler.source>
    <maven.compiler.target>1.8</maven.compiler.target>
    <hadoop.version>2.7.7</hadoop.version>
</properties>

<dependencies>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>${hadoop.version}</version>
    </dependency>

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
        <version>${hadoop.version}</version>
    </dependency>

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-core</artifactId>
        <version>${hadoop.version}</version>
    </dependency>

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-jobclient</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
    <dependency>
        <groupId>commons-cli</groupId>
        <artifactId>commons-cli</artifactId>
        <version>1.3.1</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
</dependencies>

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

測試

? ? ? ? 通過上面的操作,idea連接Hadoop集群基本實現(xiàn)了,現(xiàn)在測試

? ? ? ? 1. 在java中創(chuàng)建一個java文件

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.log4j.BasicConfigurator;

import java.io.IOException;


public class HdfsTest {

? ? public static void main(String[] args) {
? ? ? ? //自動快速地使用缺省Log4j環(huán)境。
? ? ? ? BasicConfigurator.configure();
? ? ? ? try {

? ? ? ? ? ? // 改成你自己的ip以及對應(yīng)的文件所在的路徑
? ? ? ? ? ? String filename = "hdfs://192.168.47.131:9000/words.txt";
? ? ? ? ? ? Configuration conf = new Configuration();
? ? ? ? ? ? FileSystem fs = null;
? ? ? ? ? ? fs = FileSystem.get(conf);
? ? ? ? ? ? if (fs.exists(new Path(filename))){

? ? ? ? ? ? // 在控制臺搜索the file is exist 或者not exist 根據(jù)你的情況,該文件如果存在就會打

? ? ? ? ? ? // the file is exist 不存在就會打印 the file is not exist?
? ? ? ? ? ? ? ? System.out.println("the file is exist");
? ? ? ? ? ? }else{
? ? ? ? ? ? ? ? System.out.println("the file is not exist");
? ? ? ? ? ? }
? ? ? ? } catch (IOException e) {
? ? ? ? ? ? e.printStackTrace();
? ? ? ? }
? ? }

}

? ? ? ? 此時大概率是沒有配置jdk的,按照下圖進行配置

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 2. 配置成功我們運行程序,在控制臺中查看是否存在該word.txt,我的該目錄下存在所有打印了the file is existidea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 3. 實現(xiàn)一個詞頻統(tǒng)計程序

import java.io.IOException;
import java.util.Iterator;
import java.util.StringTokenizer;

import org.apache.hadoop.fs.Path;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reducer;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.TextInputFormat;
import org.apache.hadoop.mapred.TextOutputFormat;
import org.apache.log4j.BasicConfigurator;

/**
 * 單詞統(tǒng)計MapReduce
 */
public class  WordCount {

    /**
     * Mapper類
     */
    public static class WordCountMapper extends MapReduceBase implements Mapper<Object, Text, Text, IntWritable> {
        private final static IntWritable one = new IntWritable(1);
        private Text word = new Text();
        /**
         * map方法完成工作就是讀取文件
         * 將文件中每個單詞作為key鍵,值設(shè)置為1,
         * 然后將此鍵值對設(shè)置為map的輸出,即reduce的輸入
         */
        @Override
        public void map(Object key, Text value, OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException {
            /**
             * StringTokenizer:字符串分隔解析類型
             * 之前沒有發(fā)現(xiàn)竟然有這么好用的工具類
             * java.util.StringTokenizer
             * 1. StringTokenizer(String str) :
             *     構(gòu)造一個用來解析str的StringTokenizer對象。
             *     java默認的分隔符是“空格”、“制表符(‘\t’)”、“換行符(‘\n’)”、“回車符(‘\r’)”。
             * 2. StringTokenizer(String str, String delim) :
             *     構(gòu)造一個用來解析str的StringTokenizer對象,并提供一個指定的分隔符。
             * 3. StringTokenizer(String str, String delim, boolean returnDelims) :
             *     構(gòu)造一個用來解析str的StringTokenizer對象,并提供一個指定的分隔符,同時,指定是否返回分隔符。
             *
             * 默認情況下,java默認的分隔符是“空格”、“制表符(‘\t’)”、“換行符(‘\n’)”、“回車符(‘\r’)”。
             */
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
                word.set(itr.nextToken());
                output.collect(word, one);
            }
        }
    }

    /**
     * reduce的輸入即是map的輸出,將相同鍵的單詞的值進行統(tǒng)計累加
     * 即可得出單詞的統(tǒng)計個數(shù),最后把單詞作為鍵,單詞的個數(shù)作為值,
     * 輸出到設(shè)置的輸出文件中保存
     */
    public static class WordCountReducer extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> {
        private IntWritable result = new IntWritable();

        @Override
        public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException {
            int sum = 0;
            while (values.hasNext()) {
                sum += values.next().get();
            }
            result.set(sum);
            output.collect(key, result);
        }
    }

    public static void main(String[] args) throws Exception {
        //快速使用log4j日志功能
        BasicConfigurator.configure();
        //數(shù)據(jù)輸入路徑     這里的路徑需要換成自己的hadoop所在地址
        String input = "hdfs://192.168.139.100:9000/test/input/word.txt";
        /**
         * 輸出路徑設(shè)置為HDFS的根目錄下的out文件夾下
         * 注意:該文件夾不應(yīng)該存在,否則出錯
         */
        String output = "hdfs://192.168.139.100:9000/test/output1";

        JobConf conf = new JobConf(WordCount.class);
        //設(shè)置是誰提交
        conf.setUser("master");
        /**
         * 因為map-reduce過程需要我們自定以的map-reduce類,
         * 因此,我們需要將項目導(dǎo)出為jar包
         * setjar中跟本地hadoop中的詞頻統(tǒng)計jar包
         */
        conf.setJar("E:\\ProgramSoftware\\java\\hadoop2.7.7\\hadoop-2.7.7\\share\\hadoop\\mapreduce\\hadoop-mapreduce-examples-2.7.7.jar");
        //設(shè)置作業(yè)名稱
        conf.setJobName("wordcount");
        /**
         * 聲明跨平臺提交作業(yè)
         */
        conf.set("mapreduce.app-submission.cross-platform","true");
        //很重要的聲明
        conf.setJarByClass(WordCount.class);
        //對應(yīng)單詞字符串
        conf.setOutputKeyClass(Text.class);
        //對應(yīng)單詞的統(tǒng)計個數(shù) int類型
        conf.setOutputValueClass(IntWritable.class);
        //設(shè)置mapper類
        conf.setMapperClass(WordCountMapper.class);
        /**
         * 設(shè)置合并函數(shù),合并函數(shù)的輸出作為Reducer的輸入,
         * 提高性能,能有效的降低map和reduce之間數(shù)據(jù)傳輸量。
         * 但是合并函數(shù)不能濫用。需要結(jié)合具體的業(yè)務(wù)。
         * 由于本次應(yīng)用是統(tǒng)計單詞個數(shù),所以使用合并函數(shù)不會對結(jié)果或者說
         * 業(yè)務(wù)邏輯結(jié)果產(chǎn)生影響。
         * 當對于結(jié)果產(chǎn)生影響的時候,是不能使用合并函數(shù)的。
         * 例如:我們統(tǒng)計單詞出現(xiàn)的平均值的業(yè)務(wù)邏輯時,就不能使用合并
         * 函數(shù)。此時如果使用,會影響最終的結(jié)果。
         */
        conf.setCombinerClass(WordCountReducer.class);
        //設(shè)置reduce類
        conf.setReducerClass(WordCountReducer.class);
        /**
         * 設(shè)置輸入格式,TextInputFormat是默認的輸入格式
         * 這里可以不寫這句代碼。
         * 它產(chǎn)生的鍵類型是LongWritable類型(代表文件中每行中開始的偏移量值)
         * 它的值類型是Text類型(文本類型)
         */
        conf.setInputFormat(TextInputFormat.class);
        /**
         * 設(shè)置輸出格式,TextOutpuTFormat是默認的輸出格式
         * 每條記錄寫為文本行,它的鍵和值可以是任意類型,輸出回調(diào)用toString()
         * 輸出字符串寫入文本中。默認鍵和值使用制表符進行分割。
         */
        conf.setOutputFormat(TextOutputFormat.class);
        //設(shè)置輸入數(shù)據(jù)文件路徑
        FileInputFormat.setInputPaths(conf, new Path(input));
        //設(shè)置輸出數(shù)據(jù)文件路徑(該路徑不能存在,否則異常)
        FileOutputFormat.setOutputPath(conf, new Path(output));
        //啟動mapreduce
        JobClient.runJob(conf);
        System.exit(0);
    }

}

? ? ? ? 最后在Linux虛擬機中的maser節(jié)點輸入

?hdfs dfs -ls /test/output/*

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

結(jié)語:

? ? ? ? 至此idea連接Hadoop集群配置完成,更多的操作可以通過Hadoop提供configuration類filesystem類、FSDataInputStream類和FSDataOutputStream類實現(xiàn)。

? ? ? ? 有問題的朋友可以留言,我會及時回復(fù)我所能解決的問題,一些我安裝時遇到的問題放在后面,大家可以瀏覽查看。

問題:

? ? ? ? 1. Hadoop文件放在windows環(huán)境下,按要求添加Hadoop環(huán)境變量,出現(xiàn):

JAVA_HOME is incorrectly set.Please update C:\hadoop-3.1.2\etc\hadoop\hadoop-env.cmd

第一次嘗試,Hadoop壓縮文件是從linux上傳會windows的,出現(xiàn)上面的報錯,查閱資料發(fā)現(xiàn)在hadoo-env.sh文件下JAVA_HOME確實被設(shè)置為了linux的路徑,嘗試使用notepad++修改,主要有兩種修改方式:

????????(1)set JAVA_HOME=${JAVA_HOME}

????????(2)set JAVA_HOME=xxxx\jdk1.8.0_162

修改之后還是出現(xiàn)了問題,便開始查看是不是jdk配置有問題,在命令行中輸入java -version能夠正常運行,但是輸入javac卻沒有反應(yīng),剛開始沒有重視這個問題,便再次查看是不是Hadoop配置有問題,仔細查看配置文件基于環(huán)境變量,確認無誤后。再次將矛頭指向javac,于是查看javac啟動不成功的原因,看到了jdk正確的配置方式。

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

自己windows配置jdk并沒有配置第二條,于是加上后,再次運行Hadoop -version便成功了。

? ? ? ? 2.按照ubantu server ip配置教程進行配置后,發(fā)現(xiàn)ping不了www.baidu.com。ip地址配置需要遵循的原則是與虛擬機的ip、網(wǎng)關(guān)、子網(wǎng)掩碼一樣。通過檢查發(fā)現(xiàn)教程中給的網(wǎng)關(guān)最后一位是1但是虛擬機中的網(wǎng)關(guān)最后一位是2,更改后正常上網(wǎng)。

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipseidea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipseidea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 3.hadoop集群五大文件配置時,發(fā)現(xiàn)大部分教程沒有修改etc/hadoop目錄下的hadoop-env.xml文件,如果就使用原來的set JAVA_HOME={JAVA_HOME} 會出現(xiàn)找不到j(luò)dk的情況,需要將其設(shè)置為自己本地的jdk路徑

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 4.在配置pom.xml的時候發(fā)現(xiàn)jdk.tool依賴項,會因為版本原因?qū)е聼o法正常編譯,正確的解決方式是將systempath改為本地的JAVA_HOME(雖然爆紅了,但是不要緊)

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

? ? ? ? 5.當完成全部后如果出現(xiàn)無法連接,大概率是本地的hdfs-site.xml和core-site.xml中使用了別名(master、s1),應(yīng)該替換成master主機的ip

core-site.xml

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse

hdfs-site.xml

idea連接虛擬機上hadoop集群,intellij-idea,hadoop,eclipse文章來源地址http://www.zghlxwxcb.cn/news/detail-765213.html

到了這里,關(guān)于Win10 IDEA連接虛擬機中的Hadoop集群(進來保你成)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 問題解決——datagrip遠程連接虛擬機中ubuntu的mysql失敗

    情況 :datagrip遠程win11系統(tǒng)下虛擬機里的ubuntu20.04的mysql,連接失敗。 1 如果是防火墻沒開放3306端口,則需要開放:linux 3306端口無法連接 無法通過防火墻的解決辦法 2 如果是3306端口綁定了本地ip,則需要解綁:DataGrip遠程連接服務(wù)器MySQL

    2024年02月15日
    瀏覽(24)
  • 虛擬機中的centos7虛擬機ip設(shè)置為固定ip

    虛擬機中的centos7虛擬機ip設(shè)置為固定ip

    虛擬機中的centos7虛擬機ip設(shè)置為固定ip 1、打開這個 2、在圖中看到我們需要的網(wǎng)段信息和網(wǎng)關(guān)信息了 3、設(shè)置為固定的ip,我這里設(shè)置成了192.168.171.100

    2024年01月17日
    瀏覽(26)
  • Navicat連接不上虛擬機中l(wèi)inux的dockers創(chuàng)建的mysql

    Navicat連接不上虛擬機中l(wèi)inux的dockers創(chuàng)建的mysql

    說明: 這個問題可能只是我的個人問題,記錄一下吧。當發(fā)現(xiàn)這個問題的時候,去網(wǎng)上搜素了一下,搜到的文章基本上都是通過在mysql中設(shè)置允許遠程訪問解決的,然后我也跟著嘗試了一下,問題并沒有解決。后面就亂七八糟的折騰了一天,最終通過在云服務(wù)器的安全組中開

    2024年01月17日
    瀏覽(29)
  • 解決vmware虛擬機中的linux系統(tǒng)新增硬盤后無法啟動

    解決vmware虛擬機中的linux系統(tǒng)新增硬盤后無法啟動

    以 redhat7.4為例,網(wǎng)上的解決方案多是針對ubuntu的,需要進入ubuntu的預(yù)覽系統(tǒng),redhat好像沒這個東西 問題:新添磁盤后開機無法進入系統(tǒng)。 似乎是因為計算機將新增的空硬盤作為了系統(tǒng)盤進行啟動,所以無法啟動系統(tǒng)。 解決方案:只要讓計算機將裝有l(wèi)inux系統(tǒng)的硬盤進行啟動

    2024年02月04日
    瀏覽(87)
  • VMWare虛擬機中的幾種網(wǎng)絡(luò)配置區(qū)別(橋接、僅主機、NAT)

    VMWare虛擬機中的幾種網(wǎng)絡(luò)配置區(qū)別(橋接、僅主機、NAT)

    當在VM虛擬機上安裝系統(tǒng)時,會提示進行虛擬機網(wǎng)絡(luò)配置的選擇操作,如下圖: ? 那么,這幾種網(wǎng)絡(luò)連接方式的區(qū)別是什么呢? 當電腦安裝好VMWare虛擬后,在本機的網(wǎng)絡(luò)配置中,會多出來兩個虛擬網(wǎng)卡, VMnet1 和 Vmnet8, 這兩個網(wǎng)卡就是用于虛擬機的網(wǎng)絡(luò)配置使用。 ?打開VM虛

    2024年02月09日
    瀏覽(27)
  • VMware虛擬機中的Linux重啟后共享文件夾失效的解決方法

    VMware虛擬機中的Linux重啟后共享文件夾失效的解決方法

    重啟虛擬機之后,發(fā)現(xiàn)在共享路徑?jīng)]有顯示我的共享文件夾了。 ? ? ? ? 我發(fā)現(xiàn)我虛擬機設(shè)置的共享文件夾總是啟用的,為什么每次重啟之后都找不到了呢?這就很奇怪 發(fā)現(xiàn)用命令檢查共享文件夾是有被掛載的。 ?三、修改/etc/rc.local文件 如果/etc/rc.local是空文件就添加如下

    2024年02月10日
    瀏覽(302)
  • 解決:VMware虛擬機中的kali linux,無法與物理主機進行互相復(fù)制粘貼操作

    解決:VMware虛擬機中的kali linux,無法與物理主機進行互相復(fù)制粘貼操作

    打開VMware,將之前掛起的kali虛擬機恢復(fù)運行后,往往會發(fā)現(xiàn):kali linux虛擬機,無法與物理主機進行雙向(甚至單向也不行)復(fù)制粘貼操作。 而通過搜索網(wǎng)上相關(guān)資料,進行重新安裝vmtools程序等操作,均無果。 sudo apt-get install open-vm-tools-desktop 這時候: 要么只能借助VMware軟件

    2024年02月11日
    瀏覽(97)
  • VMware中的虛擬機Debian10的服務(wù)器配置,使主機(win10)能夠通過本地域名(如www.xxx.com)訪問該服務(wù)器

    VMware中的虛擬機Debian10的服務(wù)器配置,使主機(win10)能夠通過本地域名(如www.xxx.com)訪問該服務(wù)器

    (可選下載鏈接: Index of /cdimage/archive (debian.org) ) 這里點擊瀏覽,選擇下載好的鏡像文件,然后點擊下一步 這里自己給虛擬機命名,然后選擇好虛擬機存放的路徑,接著點擊下一步 這里根據(jù)需求設(shè)置虛擬機最大的占用空間,以及選擇存儲文件的個數(shù),然后點擊下一步 確認

    2024年02月13日
    瀏覽(26)
  • 虛擬機集群部署hadoop

    虛擬機集群部署hadoop

    以三臺虛擬機為例,配置如下: 1.臺虛擬機:內(nèi)存2G,處理2 硬盤50G ,如圖 (電腦配置參考:8核16線程+32運行內(nèi)存) 2.修改克隆虛擬機的靜態(tài)IP root下執(zhí)行 更改 DEVICE= e ns33 TYPE=Ethernet ONBOOT= yes BOOTPROTO= static NAME=\\\"ens33\\\" PREFIX=24 IPADDR=192.168.1.102 (要修改的 ip ) GATEWAY=192.168.1.2 DNS1

    2024年02月19日
    瀏覽(25)
  • 搭建hadoop集群,從安裝虛擬機開始直到hadoop成功搭建

    搭建hadoop集群,從安裝虛擬機開始直到hadoop成功搭建

    搭建Hadoop集群 ? 一、實驗?zāi)康呐c要求 學(xué)習(xí)和掌握Hadoop的相關(guān)應(yīng)用,首先必須得學(xué)會搭建Hadoop集群。本次實驗將針對Hadoop集群的搭建內(nèi)容進行演練。學(xué)會虛擬機的安裝和克隆,Linux系統(tǒng)的網(wǎng)絡(luò)配置和SSH配置,Hadoop集群的搭建和配置,Hadoop集群測試,熟悉Hadoop集群基本的操作。

    2023年04月08日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包