国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

eclipse和hadoop連接攻略(詳細) Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

這篇具有很好參考價值的文章主要介紹了eclipse和hadoop連接攻略(詳細) Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

吸取前人教訓(xùn),寫下此稿

筆者所用到的軟件版本:

hadoop 2.7.3

hadoop-eclipse-plugin-2.7.3.jar

eclipse-java-2020-06-R-win32-x86_64

先從虛擬機下載hadoop 需要解壓好和文件配置好的版本,方便后文配置偽分布式文件)

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?筆者linux的hadoop目錄為:/usr/hadoop

下載到windows的某個目錄,自行選擇 筆者下載到的windows目錄為D:\desktop\fsdownload\hadoop-2.7.3

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

下載eclipse和hadoop連接的插件?hadoop-eclipse-plugin-2.7.3.jar

(筆者hadoop版本為2.7.3,你使用的hadoop版本和插件版本需要對應(yīng))

鏈接:https://pan.baidu.com/s/1m5BCOa1vcNghG0TUklB7CA?
提取碼:e9mo

(此鏈接為hadoop-eclipse-plugin-2.7.3.jar)

將下載好的插件hadoop-eclipse-plugin-2.7.3.jar 復(fù)制到eclipse的plugins目錄下

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

將winutils.exe文件復(fù)制到hadoop目錄下的bin路徑下

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

wintil.exe鏈接

鏈接:https://pan.baidu.com/s/1Ahzo8IyPhoxzvPSuT1nN7Q?
提取碼:bhip

配置hadoop環(huán)境變量

進入 設(shè)置--系統(tǒng)--關(guān)于--高級系統(tǒng)設(shè)置--環(huán)境變量

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

編輯path變量,增加內(nèi)容為:%HADOOP_HOME%\bin

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

增加一個變量HADOOP_HOME

變量值為 hadoop的路徑

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?開啟Hadoop集群(此處省略。。自行開啟)

開啟集群和復(fù)制插件之后 開啟eclipse,可以在eclipse左側(cè)工作區(qū)看到DFS Locations

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?在windows菜單下選中perference

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

perence下選中hadoop map/reduce

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

設(shè)置hadoop的安裝路徑 前文有提到 筆者的安裝路徑為?D:\desktop\fsdownload\hadoop-2.7.3

?eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?建立與hadoop的連接 在eclipse下方工作區(qū)對Map/Reduce Locations 進行設(shè)置

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?右擊 new hadoop location 進入設(shè)置

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

相關(guān)設(shè)置如圖

筆者的core-site.xml(筆者路徑為%HADOOP_HOME%/etc/hadoop/core-site.xml)文件中端口號為9000

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?設(shè)置完成之后可以在DFS Locations看到hdfs上的文件

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

新建項目hadoop1(項目名隨意)

進入eclipse 點擊左上角file--new--projects

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?輸入項目名稱

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

這樣就創(chuàng)建好了一個mapreduce項目

?執(zhí)行MapReduce 項目前,需要將hadoop中有修改過的配置文件(如偽分布式需要core-site.xml 和 hdfs-site.xml),以及l(fā)og4j.properties復(fù)制到項目下的 src文件夾中

(請忽略已經(jīng)建好的包)

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?還需要將windows下的hosts文件修改 讓ip和主機名映射

hosts文件路徑為C:\Windows\System32\drivers\etc\hosts

而修改hosts文件需要管理員權(quán)限

可以先右擊hosts文件 點擊屬性

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?將屬性中的“只讀”取消 確定并應(yīng)用

然后通過管理員身份運行命令提示窗口

進入hosts文件目錄上一級

輸入notepad hosts 即可修改hosts文件

?eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?在最底下 輸入相對應(yīng)的映射關(guān)系即可

筆者為192.168.222.171 master746

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

在hadoop1項目中創(chuàng)建包和類

需要填寫兩個地方:在Package?處填寫?org.apache.hadoop.examples;在Name?處填寫wordcount。(包名、類名可以隨意起)

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

此處筆者參考?http://t.csdn.cn/4WKHD

寫入代碼

package org.apache.hadoop.examples;
 
import java.io.IOException;
import java.util.Iterator;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
 
public class wordcount {
    public wordcount() {
    }
 
    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        String[] otherArgs = (new GenericOptionsParser(conf, args)).getRemainingArgs();
        if(otherArgs.length < 2) {
            System.err.println("Usage: wordcount <in> [<in>...] <out>");
            System.exit(2);
        }
 
        Job job = Job.getInstance(conf, "word count");
        job.setJarByClass(wordcount.class);
        job.setMapperClass(wordcount.TokenizerMapper.class);
        job.setCombinerClass(wordcount.IntSumReducer.class);
        job.setReducerClass(wordcount.IntSumReducer.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
 
        for(int i = 0; i < otherArgs.length - 1; ++i) {
            FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
        }
 
        FileOutputFormat.setOutputPath(job, new Path(otherArgs[otherArgs.length - 1]));
        System.exit(job.waitForCompletion(true)?0:1);
    }
 
    public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> {
        private IntWritable result = new IntWritable();
 
        public IntSumReducer() {
        }
 
        public void reduce(Text key, Iterable<IntWritable> values, Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            int sum = 0;
 
            IntWritable val;
            for(Iterator i$ = values.iterator(); i$.hasNext(); sum += val.get()) {
                val = (IntWritable)i$.next();
            }
 
            this.result.set(sum);
            context.write(key, this.result);
        }
    }
 
    public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable> {
        private static final IntWritable one = new IntWritable(1);
        private Text word = new Text();
 
        public TokenizerMapper() {
        }
 
        public void map(Object key, Text value, Mapper<Object, Text, Text, IntWritable>.Context context) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString());
 
            while(itr.hasMoreTokens()) {
                this.word.set(itr.nextToken());
                context.write(this.word, one);
            }
 
        }
    }
}

運行時右擊空白處 點擊 run as 然后點擊 run configutations?

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?前面寫需要進行mapreduce計算的文件 必須原本就存在

后面寫輸出文件 必須原本不存在 不然均會報錯

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?看到類似這樣的運行結(jié)果就是成功啦

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

成功運行后 查看輸出文件(若未及時出現(xiàn) 可以右擊文件refresh)

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?做到這 eclipse和hadoop就算連接成啦

完結(jié)撒花~

跟著筆者的步驟可以避免筆者踩過的大部分坑

下面是我沒有注明在文中的一些錯誤,歡迎大家一起來討論

Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

報錯如下

Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
	at org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Native Method)
	at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:609)
	at org.apache.hadoop.fs.FileUtil.canRead(FileUtil.java:977)
	at org.apache.hadoop.util.DiskChecker.checkAccessByFileMethods(DiskChecker.java:187)
	at org.apache.hadoop.util.DiskChecker.checkDirAccess(DiskChecker.java:174)
	at org.apache.hadoop.util.DiskChecker.checkDir(DiskChecker.java:108)
	at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.confChanged(LocalDirAllocator.java:285)
	at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathForWrite(LocalDirAllocator.java:344)
	at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:150)
	at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:131)
	at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:115)
	at org.apache.hadoop.mapred.LocalDistributedCacheManager.setup(LocalDistributedCacheManager.java:125)
	at org.apache.hadoop.mapred.LocalJobRunner$Job.<init>(LocalJobRunner.java:163)
	at org.apache.hadoop.mapred.LocalJobRunner.submitJob(LocalJobRunner.java:731)
	at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:240)
	at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
	at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
	at java.security.AccessController.doPrivileged(Native Method)
	at javax.security.auth.Subject.doAs(Subject.java:422)
	at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)
	at org.apache.hadoop.mapreduce.Job.submit(Job.java:1287)
	at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1308)
	at com.qs.WordcountDriver.main(WordcountDriver.java:44)

解決辦法:

在創(chuàng)建的項目中 重新創(chuàng)建一個包,名為:org.apache.hadoop.io.nativeio

在包中創(chuàng)建一個類,名為NativeIO

內(nèi)容為:???參考鏈接:http://t.csdn.cn/YxMOW

創(chuàng)建好在eclipse如下:

eclipse和hadoop連接攻略(詳細)
                    
            
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi

?再運行,就可以解決了。文章來源地址http://www.zghlxwxcb.cn/news/detail-443252.html

到了這里,關(guān)于eclipse和hadoop連接攻略(詳細) Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Wi的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Exception in thread “main“ java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$PO

    Exception in thread “main“ java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$PO

    Exception in thread “main” java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO P O S I X . s t a t ( L j a v a / l a n g / S t r i n g ; ) L o r g / a p a c h e / h a d o o p / i o / n a t i v e i o / N a t i v e I O POSIX.stat(Ljava/lang/String;)Lorg/apache/hadoop/io/nativeio/NativeIO POS I X . s t a t ( L ja v a / l an g / St r in g

    2024年02月12日
    瀏覽(52)
  • 最簡單方法解決啟動hive時報錯:Exception in thread “main“ java.lang.RuntimeException: org.apache.hadoop.hdfs.serve

    最簡單方法解決啟動hive時報錯:Exception in thread “main“ java.lang.RuntimeException: org.apache.hadoop.hdfs.serve

    ????????相信很多人和我一樣在啟動完集群之后,通過“l(fā)sof -i:10000”檢測是否啟動成功時會遇到如下圖這種情況: 等待許久依舊無法啟動成功,從而DataGrip無法連接數(shù)據(jù)庫。 ? ? ? ? 經(jīng)過回頭檢驗發(fā)現(xiàn)在啟動metastore后,hive檢驗時報錯如下圖: 很容易我們可以關(guān)注到:

    2024年04月29日
    瀏覽(77)
  • 超詳細干貨解決Exception in thread “main“ java.lang.ClassNotFoundException及No suitable driver found for jdbc

    超詳細干貨解決Exception in thread “main“ java.lang.ClassNotFoundException及No suitable driver found for jdbc

    最近一直被eclipse的WindowBuilder和java繼jdbc連接Mysql的問題困擾,終于摸索出對我有用的解決方法,希望這對你也有所幫助! 首先,當你在eclipse等IDE編譯器里Run數(shù)據(jù)庫連接后,出現(xiàn)Exception in thread \\\"main\\\" java.lang.ClassNotFoundException的結(jié)果報錯,我本人后面出現(xiàn)的還有illegal一串字符,

    2024年02月06日
    瀏覽(94)
  • javafx應(yīng)用程序線程異常Exception in thread “JavaFx Application Thread“

    javafx應(yīng)用程序線程異常Exception in thread “JavaFx Application Thread“

    前幾天用javafx做小桌面應(yīng)用程序出現(xiàn)了一個問題: 反復(fù)檢查,最終確定報錯的原因是UI刷新頻率過快導(dǎo)致的 javafx提供了Platform.runLater用于解決該問題: ?總結(jié):需要高頻調(diào)用方法使用Platform.runLater

    2024年02月10日
    瀏覽(21)
  • 已解決Exception in thread “main“ java.lang.NullPointerException

    已解決Exception in thread “main” java.lang.NullPointerException Exception in thread “main“ java.lang.NullPointerException 對于異常 “Exception in thread “main” java.lang.NullPointerException” 的詳細解決方法 下滑查看解決方法 可以按照以下步驟進行處理: 確定異常的位置:根據(jù)異常信息中提供的線程和

    2024年01月22日
    瀏覽(40)
  • 已解決:Exception in thread “main“ java.lang.NoSuchMethodError

    已解決:Exception in thread “main“ java.lang.NoSuchMethodError

    分為兩種情況,如果找不到自己寫的某個方法,一般是main函數(shù)沒加static之類的。這里討論第二種情況:找不到第三方包中的某個方法。 這樣的情況大概率是因為這個報錯的包在Maven依賴中存在多個版本,存在版本沖突。如下面的報錯就是因為google.protobuf這個包有多個版本,而

    2024年02月08日
    瀏覽(107)
  • Exception in thread “main“ java.lang.reflect.InvocationTargetException

    Exception in thread “main“ java.lang.reflect.InvocationTargetException

    idea中app后臺本地運行成功,但是打成jar包后運行,失敗報錯如下 原因分析:jar包運行存在問題,項目中有dockerfile文件,直接執(zhí)行java -jar會報錯,因為dockerfeil文件中配置了啟動jar包的命令: ? ?

    2024年02月08日
    瀏覽(28)
  • Exception in thread “main“ java.lang.UnsupportedClassVersionError 50報錯處理

    Exception in thread “main“ java.lang.UnsupportedClassVersionError 50報錯處理

    之間正常走jenkins+docker自動化部署的項目,今天改了一個文件,點了一下,竟然沒有部署上去,提示如上,如下 ?Exception in thread \\\"main\\\" java.lang.UnsupportedClassVersionError: com/coocaa/tsp/sys/user/UserServerApplication has been compiled by a more recent version of the Java Runtime (class file version 55.0), this ver

    2024年02月10日
    瀏覽(27)
  • picard安裝時報錯“Exception in thread “main“ java.lang.UnsupportedClassVersionError”

    picard安裝時報錯“Exception in thread “main“ java.lang.UnsupportedClassVersionError”

    最近在通過GATK所介紹的best practice流程來call SNP流程 1.1 BWA比對,獲得sam文件 1.2 準備用picard來壓縮排序sam文件為bam文件,并對bam文件進行去重復(fù)(duplicates marking) 這是就需要用到picard軟件?按照教程網(wǎng)頁上給的下載路徑picard download | SourceForge.net,里面是2015年的1.119版本,下載

    2024年02月13日
    瀏覽(23)
  • SpringBoot啟動異常之Exception in thread “main“ java.lang.UnsupportedClassVersionError

    SpringBoot啟動異常之Exception in thread “main“ java.lang.UnsupportedClassVersionError

    異常提示:Exception in thread \\\"main\\\" java.lang.UnsupportedClassVersionError: org/springframework/boot/SpringApplication has been compiled by a more recent version of the Java Runtime (class file version 61.0), this version of the Java Runtime only recognizes class file versions up to 52.0 ?SpringBoot 與 JDK 版本沖突:新建項目時,idea 會默認

    2024年02月01日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包