?一、安裝配置 java 環(huán)境(已有 java 環(huán)境則跳過)
所需文件下載
鏈接:https://pan.baidu.com/s/1OYoeMVHOtcu05jR1mL7LeA?
提取碼:yyds
配置環(huán)境變量:
此電腦(右擊)==>屬性==>高級(jí)系統(tǒng)設(shè)置==>環(huán)境變量==>系統(tǒng)變量==>新建
CLASSPATH:.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;JAVA_HOME:C:\Program Files\Java\jdk1.8.0_66(jdk安裝路徑)
?
?此電腦(右擊)==>屬性==>高級(jí)系統(tǒng)設(shè)置==>環(huán)境變量==>系統(tǒng)變量==>Path==>新建
%JAVA_HOME%\bin%JAVA_HOME%\jre\bin
?
二、scala 安裝配置
配置環(huán)境變量
?此電腦(右擊)==>屬性==>高級(jí)系統(tǒng)設(shè)置==>環(huán)境變量==>系統(tǒng)變量==>Path==>新建
%SCALA_HOME%\bin
查看是否安裝成功
scala -version
三、Spark 安裝配置
解壓 spark-2.3.0-bin-hadoop2.7.tgz 文件夾至本地
配置 spark 環(huán)境變量
此電腦(右擊)==>屬性==>高級(jí)系統(tǒng)設(shè)置==>環(huán)境變量==>系統(tǒng)變量==>Path==>新建
D:\Files\Spark\bin? (spark安裝路徑)
配置 hadoop環(huán)境

HADOOP_HOME:D:\Files\Hadoop? ? ? ? ? ? ? ? ? ? ? ? ? ? (hadoop安裝路徑)
path:%HADOOP_HOME%\bin
驗(yàn)證環(huán)境搭建是否成功

四、使用 pyspark 則要求 python 環(huán)境(已有 python 環(huán)境則跳過)
Spark 對(duì) python 高版本支持不是很好,建議安裝 python 的版本 3.6
用Anaconda創(chuàng)建虛擬環(huán)境
用Anaconda的虛擬環(huán)境配置python環(huán)境(Anaconda安裝略)
創(chuàng)建名為 pyspark 虛擬環(huán)境,python版本為3.6.3
conda create -name pyspark python=3.6.3
查看虛擬環(huán)境
conda -v
激活虛擬環(huán)境
conda activate?pyspark
打開pycharm應(yīng)用環(huán)境文章來源:http://www.zghlxwxcb.cn/news/detail-766300.html
文章來源地址http://www.zghlxwxcb.cn/news/detail-766300.html
五、pycharm 配置 pyspark 環(huán)境
安裝依賴模塊
PyCharm 測(cè)試是否配置成功
from pyspark import Spark
Contextsc = SparkContext("local", "test")
t1 = sc.parallelize([1,2,3])
t2 =t1.collect()
print(t1)
print(t2)
六、Jupter notebook 配置 pyspark 環(huán)境

到了這里,關(guān)于Win10 環(huán)境下 spark 本地環(huán)境的搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!