先自我介紹一下,小編浙江大學畢業(yè),去過華為、字節(jié)跳動等大廠,目前阿里P7
深知大多數(shù)程序員,想要提升技能,往往是自己摸索成長,但自己不成體系的自學效果低效又漫長,而且極易碰到天花板技術停滯不前!
因此收集整理了一份《2024年最新軟件測試全套學習資料》,初衷也很簡單,就是希望能夠幫助到想自學提升又不知道該從何學起的朋友。
既有適合小白學習的零基礎資料,也有適合3年以上經(jīng)驗的小伙伴深入學習提升的進階課程,涵蓋了95%以上軟件測試知識點,真正體系化!
由于文件比較多,這里只是將部分目錄截圖出來,全套包含大廠面經(jīng)、學習筆記、源碼講義、實戰(zhàn)項目、大綱路線、講解視頻,并且后續(xù)會持續(xù)更新
如果你需要這些資料,可以添加V獲?。簐ip1024b (備注軟件測試)
正文
Docker可以在Window下和Linux下安裝,本教程基于Ubuntu16.04之上安裝docker,注意如果你選擇在虛擬機上安裝docker,請保證虛擬機內(nèi)存不小于4G,硬盤大小不小于15G
首先打開終端命令窗口,注意如果當前用戶是root用戶則以下所有操作均無需帶 sudo
sudo apt-get install docker.io
sudo docker images
2、下載Spark鏡像
這個鏡像是我這幾天在搭分布式Spark環(huán)境時保存下來的,為了方便大家快速搭建Spark集群,可以在這里下載 spark.tar(密碼:ydzo)下載完成之后,可以拷貝或者移動到當前用戶的home目錄下,接下來輸入命令
sudo docker load < ~/spark.tar
完成后,再次輸入命令查看
sudo docker images
如果鏡像加載成功則會多出一個spark鏡像文件
3、創(chuàng)建3個容器
輸入以下命令創(chuàng)建容器
docker container create --name cloud8 -h cloud8 --add-host cloud8:172.17.0.2 --add-host cloud9:172.17.0.3 --add-host cloud10:172.17.0.4 -it spark:5.0
docker container create --name cloud9 -h cloud9 --add-host cloud8:172.17.0.2 --add-host cloud9:172.17.0.3 --add-host cloud10:172.17.0.4 -it spark:5.0
docker container create --name cloud10 -h cloud10 --add-host cloud8:172.17.0.2 --add-host cloud9:172.17.0.3 --add-host cloud10:172.17.0.4 -it spark:5.0
完成后,輸入以下命令查看容器
sudo docker ps -a
會發(fā)現(xiàn)多出3個容器,名稱分別為cloud8,cloud9,cloud10
4、啟動集群
在啟動集群之前,需要修改一些配置文件,首先,打開3個命令窗口,按順序在3個窗口輸入以下命令
sudo docker start -i cloud8
sudo docker start -i cloud9
sudo docker start -i cloud10
此時,應該可以看到,三個窗口分別顯示進入了cloud8,cloud9,cloud10三臺主機
下面在三個窗口中執(zhí)行以下命令
vi ~/hadoop/etc/hadoop/myid
按i鍵開始編輯,將cloud8中的值改為1,cloud9中的值改為2,cloud10中的值改為3
接下來在三個命令窗口中輸入以下命令
網(wǎng)上學習資料一大堆,但如果學到的知識不成體系,遇到問題時只是淺嘗輒止,不再深入研究,那么很難做到真正的技術提升。
需要這份系統(tǒng)化的資料的朋友,可以添加V獲取:vip1024b (備注軟件測試)
一個人可以走的很快,但一群人才能走的更遠!不論你是正從事IT行業(yè)的老鳥或是對IT行業(yè)感興趣的新人,都歡迎加入我們的的圈子(技術交流、學習資源、職場吐槽、大廠內(nèi)推、面試輔導),讓我們一起學習成長!
vHpNcv5-1713298536957)]文章來源:http://www.zghlxwxcb.cn/news/detail-860033.html
一個人可以走的很快,但一群人才能走的更遠!不論你是正從事IT行業(yè)的老鳥或是對IT行業(yè)感興趣的新人,都歡迎加入我們的的圈子(技術交流、學習資源、職場吐槽、大廠內(nèi)推、面試輔導),讓我們一起學習成長!文章來源地址http://www.zghlxwxcb.cn/news/detail-860033.html
到了這里,關于Docker下安裝Hadoop和Spark集群_docker 中安裝hadoop和spark的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!