国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境)

這篇具有很好參考價(jià)值的文章主要介紹了在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

? ? ? ?建議大家寫(xiě)在Linux上搭建好Hadoop的完全分布式集群環(huán)境和Spark集群環(huán)境,以下在IDEA中搭建的環(huán)境僅僅是在window系統(tǒng)上進(jìn)行spark程序的開(kāi)發(fā)學(xué)習(xí),在window系統(tǒng)上可以不用安裝hadoop和spark,spark程序可以通過(guò)pom.xml的文件配置,添加spark-core依賴(lài),可以直接在IDEA中編寫(xiě)spark程序并運(yùn)行結(jié)果。

一、相關(guān)軟件的下載及環(huán)境配置

1.jdk的下載安裝及環(huán)境變量配置(我選擇的版本是jdk8.0(即jdk1.8),建議不要使用太高版本的,不然配置pom.xml容易報(bào)錯(cuò))

鏈接:https://pan.baidu.com/s/1deXf6pgMiRca1O724fUOxg?
提取碼:sxuy

雙擊安裝包,一直“Next”即可,最好不要安裝到C盤(pán),中間修改一下安裝路徑即可,最后點(diǎn)擊“Finish”。我將jdk1.8安裝在了D盤(pán)目錄下的soft文件夾,bin路徑如下:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

配置環(huán)境變量:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

win+R打開(kāi)命令窗口輸入:javac -verison ,進(jìn)行檢測(cè)是否成功配置環(huán)境變量:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

2.IDEA的下載安裝(我選擇的版本是2019.2.3,建議選擇低版本的IDEA)

官網(wǎng)下載地址:IntelliJ IDEA – 領(lǐng)先的 Java 和 Kotlin IDE (jetbrains.com.cn)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

3.scala的下載(我選擇的版本是2.12.15)安裝及環(huán)境變量的配置

官網(wǎng)下載地址:The Scala Programming Language (scala-lang.org)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

雙擊打開(kāi)下載好的安裝程序,一直“Next”即可,最好不要安裝到C盤(pán),中間修改一下安裝路徑即可,最后點(diǎn)擊“Finish”。我將scala軟件安裝在了D盤(pán)目錄下的Develop文件夾,bin路徑如下:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

配置scala的系統(tǒng)環(huán)境變量,將scala安裝的bin目錄路徑加入到系統(tǒng)環(huán)境變量path中:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

win+R打開(kāi)命令窗口輸入:scala -verison ,進(jìn)行檢測(cè)是否成功配置環(huán)境變量:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

4.scala插件(版本要與IDEA版本保持一致,下載2019.2.3版本)的下載安裝

官網(wǎng)地址:Scala - IntelliJ IDEs Plugin | Marketplace

下載完成后,將下載的壓縮包解壓到IDEA安裝目錄下的plugins目錄下:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

5.maven的下載(我選擇的版本是3.5.4)與安裝,系統(tǒng)環(huán)境變量的配置

官網(wǎng)地址:Maven – Download Apache Maven

將對(duì)應(yīng)版本的壓縮包下載到本地,并新建一個(gè)文件夾Localwarehouse,用來(lái)保存下載的依賴(lài)文件

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

配置maven的系統(tǒng)環(huán)境配置,跟以上配置的方法一樣,將bin目錄地址寫(xiě)入path環(huán)境變量:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

打開(kāi)maven安裝包下的conf文件夾下面的settings.xml,添加如下代碼:

<localRepository>D:\\Develop\\maven\\Localwarehouse</localRepository>

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

添加如下代碼用來(lái)配置jdk版本:

   <profile>
    <id>jdk-1.8.0</id>
    <activation>
    <activeByDefault>true</activeByDefault>
    <jdk>1.8.0</jdk>
    </activation>
    <properties>
    <maven.compiler.source>1.8.0</maven.compiler.source>
    <maven.compiler.target>1.8.0</maven.compiler.target>
    <maven.compiler.compilerVersion>1.8.0</maven.compiler.compilerVersion>
    </properties>
    </profile>

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

二、將maven加載到IDEA中

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

三、檢測(cè)scala插件是否在IDEA中已經(jīng)安裝成功

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

四、用maven新建一個(gè)工程項(xiàng)目

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

五、配置pom.xml文件

1.如果只需要在本地運(yùn)行spark程序,則只需要添加scala-library、spark-core、spark-sql、spark-streaming等依賴(lài),添加代碼如下:

<properties>
        <!-- 聲明scala的版本 -->
        <scala.version>2.12.15</scala.version>
        <!-- 聲明linux集群搭建的spark版本,如果沒(méi)有搭建則不用寫(xiě) -->
        <spark.version>3.2.1</spark.version>
        <!-- 聲明linux集群搭建的Hadoop版本 ,如果沒(méi)有搭建則不用寫(xiě)-->
        <hadoop.version>3.1.4</hadoop.version>
    </properties>
    <dependencies>
        <!--scala-->
        <dependency>
            <groupId>org.scala-lang</groupId>
            <artifactId>scala-library</artifactId>
            <version>${scala.version}</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.12</artifactId>
            <version>3.2.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-sql -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.12</artifactId>
            <version>3.2.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-streaming -->
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-streaming_2.12</artifactId>
            <version>3.2.1</version>
            <scope>provided</scope>
        </dependency>
    </dependencies>

六、新建scala類(lèi)文件編寫(xiě)代碼

當(dāng)你右鍵發(fā)現(xiàn)無(wú)法新建scala類(lèi),需要將scala SDK添加到當(dāng)前項(xiàng)目中。

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

鼠標(biāo)點(diǎn)擊java文件夾,右鍵new--->Scala Class

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在WordCount文件中編寫(xiě)如下代碼:

import org.apache.spark.sql.SparkSession
object WordCount {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession
      .builder()
      .master("local[*]")
      .appName("word count")
      .getOrCreate()
    val sc = spark.sparkContext
    val rdd = sc.textFile("data/input/words.txt")
    val counts = rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
    counts.collect().foreach(println)
    println("全部的單詞數(shù):"+counts.count())
    counts.saveAsTextFile("data/output/word-count")
  }
}

準(zhǔn)備好測(cè)試文件words.txt,將文件存放在scalaproject-->data-->input-->words.txt

hello me you her
hello me you
hello me
hello

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

運(yùn)行WordCount程序

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

運(yùn)行結(jié)果:

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)

在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境),大數(shù)據(jù)開(kāi)發(fā),intellij-idea,java,ide,spark,大數(shù)據(jù)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-738771.html

到了這里,關(guān)于在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記01【Spark(概述、快速上手、運(yùn)行環(huán)境、運(yùn)行架構(gòu))】

    尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記01【Spark(概述、快速上手、運(yùn)行環(huán)境、運(yùn)行架構(gòu))】

    視頻地址: 尚硅谷大數(shù)據(jù)Spark教程從入門(mén)到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記01【Spark(概述、快速上手、運(yùn)行環(huán)境、運(yùn)行架構(gòu))】 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記02【SparkCore(核心編程、案例實(shí)操)】 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記03【SparkSQL(概述、核心編程、

    2023年04月21日
    瀏覽(25)
  • 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記01【Spark(概述、快速上手、運(yùn)行環(huán)境)】

    尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記01【Spark(概述、快速上手、運(yùn)行環(huán)境)】

    視頻地址: 尚硅谷大數(shù)據(jù)Spark教程從入門(mén)到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記01【Spark(概述、快速上手、運(yùn)行環(huán)境、運(yùn)行架構(gòu))】 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記02【SparkCore(核心編程、案例實(shí)操)】 尚硅谷大數(shù)據(jù)技術(shù)Spark教程-筆記03【SparkSQL(概述、核心編程、

    2023年04月15日
    瀏覽(26)
  • Intellij IDEA編寫(xiě)Spark應(yīng)用程序的環(huán)境配置和操作步驟

    Intellij IDEA編寫(xiě)Spark應(yīng)用程序的環(huán)境配置和操作步驟

    本文介紹如何在win系統(tǒng)中使用IDEA開(kāi)發(fā)spark應(yīng)用程序,并將其打成jar包上傳到虛擬機(jī)中的三個(gè)Ubuntu系統(tǒng),然后在分布式環(huán)境中運(yùn)行。 主要步驟包括: 安裝Scala插件:在Intellij IDEA中安裝Scala插件,并重啟IDEA。 創(chuàng)建Maven項(xiàng)目:在Intellij IDEA中創(chuàng)建一個(gè)Maven項(xiàng)目,選擇Scala語(yǔ)言,并添加

    2024年02月12日
    瀏覽(14)
  • Windows下的Spark環(huán)境配置(含IDEA創(chuàng)建工程--《Spark大數(shù)據(jù)技術(shù)與應(yīng)用》第九章-菜品推薦項(xiàng)目)

    Windows下的Spark環(huán)境配置(含IDEA創(chuàng)建工程--《Spark大數(shù)據(jù)技術(shù)與應(yīng)用》第九章-菜品推薦項(xiàng)目)

    本文適用于《Spark大數(shù)據(jù)技術(shù)與應(yīng)用》第九章-菜品推薦項(xiàng)目環(huán)境配置:` 跟著做就行… 資源都在網(wǎng)盤(pán)里面,純粹的無(wú)腦配置… 提示:以下是本篇文章正文內(nèi)容,所用資源版本過(guò)低,用于課本實(shí)驗(yàn) ,且已有Java環(huán)境 scala:2.12.8 spark:1.6.2 hadoop:2.6.4 hadoop啟動(dòng)文件exe JAVA 如果按照

    2024年02月09日
    瀏覽(20)
  • .Net大數(shù)據(jù)平臺(tái)Microsoft.Spark環(huán)境構(gòu)建 附可運(yùn)行源碼。

    .Net大數(shù)據(jù)平臺(tái)Microsoft.Spark環(huán)境構(gòu)建 附可運(yùn)行源碼。

    前言:大什么數(shù)據(jù)?什么大數(shù)據(jù)?什么數(shù)據(jù)大?挖野菜才是正道。 ?NBNBNB 老資終于可以不用花太多精力搞python了? 。 window環(huán)境的.Net大數(shù)據(jù)平臺(tái)環(huán)境構(gòu)建 附帶可運(yùn)行源碼。 windows 安裝jdk 相關(guān)坑 java jdk1.8.0_221 安裝步驟_云草桑的博客-CSDN博客_jdk1.8.0_221 ?.NET for Apache Spark 使用

    2024年02月09日
    瀏覽(20)
  • Spark大數(shù)據(jù)處理學(xué)習(xí)筆記(2.4)IDEA開(kāi)發(fā)詞頻統(tǒng)計(jì)項(xiàng)目

    Spark大數(shù)據(jù)處理學(xué)習(xí)筆記(2.4)IDEA開(kāi)發(fā)詞頻統(tǒng)計(jì)項(xiàng)目

    該文章主要為完成實(shí)訓(xùn)任務(wù),詳細(xì)實(shí)現(xiàn)過(guò)程及結(jié)果見(jiàn)【http://t.csdn.cn/0qE1L】 從Scala官網(wǎng)下載Scala2.12.15 - https://www.scala-lang.org/download/2.12.15.html 安裝在默認(rèn)位置 安裝完畢 在命令行窗口查看Scala版本(必須要配置環(huán)境變量) 啟動(dòng)HDFS服務(wù) 啟動(dòng)Spark集群 在master虛擬機(jī)上創(chuàng)建單詞文件

    2024年02月08日
    瀏覽(33)
  • 大數(shù)據(jù)開(kāi)源框架環(huán)境搭建(七)——Spark完全分布式集群的安裝部署

    大數(shù)據(jù)開(kāi)源框架環(huán)境搭建(七)——Spark完全分布式集群的安裝部署

    前言:七八九用于Spark的編程實(shí)驗(yàn) 大數(shù)據(jù)開(kāi)源框架之基于Spark的氣象數(shù)據(jù)處理與分析_木子一個(gè)Lee的博客-CSDN博客_spark輿情分析 目錄 實(shí)驗(yàn)環(huán)境: 實(shí)驗(yàn)步驟: 一、解壓 二、配置環(huán)境變量:? 三、修改配置文件? 1.修改spark-env.sh配置文件: 2.修改配置文件slaves: 3.分發(fā)配置文件:

    2024年02月11日
    瀏覽(94)
  • Intellij IDEA安裝配置Spark與運(yùn)行

    Intellij IDEA安裝配置Spark與運(yùn)行

    目錄 Scala配置教程 配置Spark運(yùn)行環(huán)境 編寫(xiě)Spark程序 ?1、包和導(dǎo)入 2、定義對(duì)象 3、主函數(shù) 4、創(chuàng)建Spark配置和上下文 5、定義輸入文件路徑 6、單詞計(jì)數(shù)邏輯 7、輸出結(jié)果 8、完整代碼: IDEA配置Scala:教程 添加Spark開(kāi)發(fā)依賴(lài)包(快捷鍵:Ctrl+Alt+Shift+S) 找到Spark安裝目錄下的jars文

    2024年04月16日
    瀏覽(20)
  • idea配置spark環(huán)境

    idea配置spark環(huán)境

    ?1. 首先,需要準(zhǔn)備maven的環(huán)境配置,我的idea是2021版本,(新版應(yīng)該差不多) 下載maven的版本包,建議去官網(wǎng)下載Maven – Maven Releases History (apache.org) 建議下載版本是3.8.8 然后進(jìn)入settings里的maven界面 將maven home path 設(shè)置為你下載的路徑: 此時(shí)下面的version會(huì)改變 隨后打開(kāi)路徑中

    2024年02月03日
    瀏覽(18)
  • Linux CentOS下大數(shù)據(jù)環(huán)境搭建(zookeeper+hadoop+hbase+spark+scala)

    Linux CentOS下大數(shù)據(jù)環(huán)境搭建(zookeeper+hadoop+hbase+spark+scala)

    本篇文章是結(jié)合我個(gè)人學(xué)習(xí)經(jīng)歷所寫(xiě),如果遇到什么問(wèn)題或者我有什么錯(cuò)誤,歡迎討論。 百度網(wǎng)盤(pán)鏈接:https://pan.baidu.com/s/1DCkQQVYqYHYtPws9hWGpgw?pwd=zh1y 提取碼:zh1y 軟件在連接中VMwareWorkstation_V16.2.1_XiTongZhiJia的文件夾下。 雙擊運(yùn)行安裝包,這里下一步即可。 這里勾選我接受許可

    2024年04月15日
    瀏覽(62)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包