国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

時(shí)間序列生成數(shù)據(jù),TransformerGAN

這篇具有很好參考價(jià)值的文章主要介紹了時(shí)間序列生成數(shù)據(jù),TransformerGAN。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

????????簡(jiǎn)介:這個(gè)代碼可以用于時(shí)間序列修復(fù)和生成。使用transformer提取單變量或者多變時(shí)間窗口的趨勢(shì)分布情況。然后使用GAN生成分布類似的時(shí)間序列。

? ? ? ? 此外,還實(shí)現(xiàn)了基于prompt的數(shù)據(jù)生成,比如指定生成某個(gè)月份的數(shù)據(jù)、某半個(gè)月的數(shù)據(jù)、某一個(gè)星期的數(shù)據(jù)。

1、模型架構(gòu)

? ? ? ? 如下圖所示,生成器和鑒別器都使用Transformer的編碼器部分提取時(shí)間序列的特征,然后鑒別器使用這些進(jìn)行二分類、生成器使用這些特征生成偽造的數(shù)據(jù)。

? ? ? ? 重點(diǎn):在下面的圖的基礎(chǔ)上,我還添加了基于提示的生成代碼,類似于AI提示繪畫(huà)一樣,因此可以指定生成一月份、二月份等任意指定周期的數(shù)據(jù)。

時(shí)間序列生成數(shù)據(jù),TransformerGAN,人工智能學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò),transformer,生成對(duì)抗網(wǎng)絡(luò)

2、訓(xùn)練GAN的代碼

? ? ? ? 下面是GAN的訓(xùn)練部分。

# 訓(xùn)練GAN
num_epochs = 100
for epoch in range(num_epochs):
    for real_x,x_g,zz in loader: # 分別是真實(shí)值real_x、提示詞信息x_g、噪聲zz
        real_data = real_x
        noisy_data = x_g
        # Train Discriminator
        optimizer_D.zero_grad()
        out = discriminator(real_data)
        real_loss = criterion(discriminator(real_data), torch.ones(real_data.size(0), 1))
        fake_data = generator(noisy_data,zz)
        fake_loss = criterion(discriminator(fake_data.detach()), torch.zeros(fake_data.size(0), 1))
        d_loss = real_loss + fake_loss
        d_loss.backward()
        optimizer_D.step()

        # Train Generator
        optimizer_G.zero_grad()
        g_loss = criterion(discriminator(fake_data), torch.ones(fake_data.size(0), 1))
        g_loss.backward()
        optimizer_G.step()

    print(f'Epoch [{epoch+1}/{num_epochs}], D Loss: {d_loss.item()}, G Loss: {g_loss.item()}')

3、生成器代碼

class Generator(nn.Module):
    def __init__(self, seq_len=8, patch_size=2, channels=1, num_classes=9, latent_dim=100, embed_dim=10, depth=1,
                 num_heads=5, forward_drop_rate=0.5, attn_drop_rate=0.5):
        super(Generator, self).__init__()
        self.channels = channels
        self.latent_dim = latent_dim
        self.seq_len = seq_len
        self.embed_dim = embed_dim
        self.patch_size = patch_size
        self.depth = depth
        self.attn_drop_rate = attn_drop_rate
        self.forward_drop_rate = forward_drop_rate
        
        self.l1 = nn.Linear(self.latent_dim, self.seq_len * self.embed_dim)
        self.pos_embed = nn.Parameter(torch.zeros(1, self.seq_len, self.embed_dim))
        self.blocks = Gen_TransformerEncoder(
                         depth=self.depth,
                         emb_size = self.embed_dim,
                         drop_p = self.attn_drop_rate,
                        )

        self.deconv = nn.Sequential(
            nn.Conv2d(self.embed_dim, self.channels, 1, 1, 0)
        )

    def forward(self, z):
        x = self.l1(z).view(-1, self.seq_len, self.embed_dim)
        x = x + self.pos_embed
        H, W = 1, self.seq_len
        x = self.blocks(x)
        x = x.reshape(x.shape[0], 1, x.shape[1], x.shape[2])
        output = self.deconv(x.permute(0, 3, 1, 2))
        output = output.view(-1, self.channels, H, W)
        return output

4、生成數(shù)據(jù)和真實(shí)數(shù)據(jù)分布對(duì)比

? ? ? ? 使用PCA和TSNE對(duì)生成的時(shí)間窗口數(shù)據(jù)進(jìn)行降維,然后scatter這些二維點(diǎn)。如果生成的真實(shí)數(shù)據(jù)的互相混合在一起,說(shuō)明模型學(xué)習(xí)到了真東西,也就是模型偽造的數(shù)據(jù)和真實(shí)數(shù)據(jù)分布是一樣的,美滋滋。從下面的PCA可以看出,兩者的分布還是近似的。

? ? ? ? 進(jìn)一步的,可以擬合兩個(gè)二維正態(tài)分布,然后計(jì)算他們的KL散度作為一個(gè)評(píng)價(jià)指標(biāo)。

時(shí)間序列生成數(shù)據(jù),TransformerGAN,人工智能學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò),transformer,生成對(duì)抗網(wǎng)絡(luò)

時(shí)間序列生成數(shù)據(jù),TransformerGAN,人工智能學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò),transformer,生成對(duì)抗網(wǎng)絡(luò)

5、生成數(shù)據(jù)展示

? ? ? ? 上面是真實(shí)數(shù)據(jù)、下面是偽造的數(shù)據(jù)。由于只有幾百個(gè)樣本,以及參數(shù)都沒(méi)有進(jìn)行調(diào)整,但是效果還不錯(cuò)。

時(shí)間序列生成數(shù)據(jù),TransformerGAN,人工智能學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò),transformer,生成對(duì)抗網(wǎng)絡(luò)

6、損失函數(shù)變化情況

? ? ? ? 模型還是學(xué)習(xí)到了一點(diǎn)東西的。

時(shí)間序列生成數(shù)據(jù),TransformerGAN,人工智能學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò),transformer,生成對(duì)抗網(wǎng)絡(luò)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-861675.html

到了這里,關(guān)于時(shí)間序列生成數(shù)據(jù),TransformerGAN的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【數(shù)據(jù)挖掘】時(shí)間序列教程【一】

    ????????對(duì)于時(shí)間序列的研究,可以追溯到19世紀(jì)末和20世紀(jì)初。當(dāng)時(shí),許多學(xué)者開(kāi)始對(duì)時(shí)間相關(guān)的經(jīng)濟(jì)和社會(huì)現(xiàn)象進(jìn)行研究,嘗試發(fā)現(xiàn)其規(guī)律和趨勢(shì)。其中最早的時(shí)間序列研究可以追溯到法國(guó)經(jīng)濟(jì)學(xué)家易貝爾(Maurice Allais)和英國(guó)經(jīng)濟(jì)學(xué)家詹姆斯·克拉克(James Clark)的研

    2024年02月12日
    瀏覽(25)
  • 【數(shù)據(jù)挖掘】時(shí)間序列教程【八】

    我們先考慮一個(gè)簡(jiǎn)單的線性回歸模型, ???????????????????????????????????????? 哪里?和是具有平均值的高斯過(guò)程 00 和自協(xié)方差 .現(xiàn)在,在不失去一般性的情況下,讓我們假設(shè) 而那 瓦爾

    2024年02月12日
    瀏覽(27)
  • 【數(shù)據(jù)挖掘】時(shí)間序列教程【九】

    ????????狀態(tài)空間模型通常試圖描述具有兩個(gè)特征的現(xiàn)象 有一個(gè)底層系統(tǒng)具有時(shí)變的動(dòng)態(tài)關(guān)系,因此系統(tǒng)在時(shí)間上的“狀態(tài)”t 與系統(tǒng)在時(shí)間的狀態(tài)t?1有關(guān) .如果我們知道系統(tǒng)在時(shí)間上的狀態(tài)t?1 ,那么我們就有了 我們需要知道的一切 ,以便對(duì)當(dāng)時(shí)的狀態(tài)進(jìn)行推斷或預(yù)測(cè)

    2024年02月13日
    瀏覽(20)
  • 數(shù)據(jù)分析實(shí)戰(zhàn)│時(shí)間序列預(yù)測(cè)

    數(shù)據(jù)分析實(shí)戰(zhàn)│時(shí)間序列預(yù)測(cè)

    時(shí)間序列預(yù)測(cè)問(wèn)題是一類常見(jiàn)的數(shù)據(jù)分析問(wèn)題。數(shù)據(jù)中往往包含時(shí)間標(biāo)簽,這類問(wèn)題往往根據(jù)過(guò)去一段時(shí)間的數(shù)據(jù),建立能夠比較精確地反映序列中所包含的動(dòng)態(tài)依存關(guān)系的數(shù)學(xué)模型,并對(duì)未來(lái)的數(shù)據(jù)進(jìn)行預(yù)測(cè)。 本案例給出二戰(zhàn)時(shí)期的某氣象站溫度記錄值,通過(guò)分析之前的天

    2024年02月11日
    瀏覽(29)
  • 【數(shù)據(jù)挖掘】時(shí)間序列教程【五】

    (說(shuō)明:本文接上回: 【數(shù)據(jù)挖掘】時(shí)間序列教程【四】_無(wú)水先生的博客-CSDN博客 )? ? ? ?? ????????上面介紹的傅里葉變換的問(wèn)題在于,無(wú)論是正弦/余弦回歸模型形式還是復(fù)指數(shù)形式,它都需要?操作以計(jì)算所有傅里葉系數(shù)。有n 數(shù)據(jù)點(diǎn)和有n/2 可以計(jì)算傅里葉系數(shù)的

    2024年02月11日
    瀏覽(23)
  • 【數(shù)據(jù)挖掘】時(shí)間序列教程【十】

    【數(shù)據(jù)挖掘】時(shí)間序列教程【十】

    上一節(jié)中描述的狀態(tài)空間模型作為觀測(cè)方程的更一般的公式 ???????? ? 和狀態(tài)方程 ???????? ? ????????這里是一個(gè)p×1?向量是一個(gè)k×1 向量,??是一個(gè)p×k 矩陣, ?是k×k 矩陣。我們可以想到的和? ????????給定初始狀態(tài)?和?,預(yù)測(cè)方程為(類似于上面) ?????

    2024年02月15日
    瀏覽(22)
  • 【數(shù)據(jù)挖掘】時(shí)間序列教程【四】

    【數(shù)據(jù)挖掘】時(shí)間序列教程【四】

    ????????我們可以對(duì)上述? 的主模型采用方差分析方法,并將中的總變異分解為 為殘差平方和和可歸因于各種頻率的變化。???????? ????????第二行是可能的,因?yàn)槠椒降乃薪徊骓?xiàng)都等于零,即對(duì)于所有?, ????????????????????????????????

    2024年02月12日
    瀏覽(16)
  • 時(shí)間序列數(shù)據(jù)庫(kù) (TSDB)

    時(shí)間序列數(shù)據(jù)庫(kù) (TSDB)

    參考文檔:時(shí)間序列數(shù)據(jù)庫(kù) TSDB_時(shí)間序列數(shù)據(jù)庫(kù) TSDB-阿里云幫助中心 時(shí)序數(shù)據(jù)是隨時(shí)間不斷產(chǎn)生的一系列數(shù)據(jù),簡(jiǎn)單來(lái)說(shuō),就是帶時(shí)間戳的數(shù)據(jù)。數(shù)據(jù)可能來(lái)自服務(wù)器和應(yīng)用程序的指標(biāo)、物聯(lián)網(wǎng)傳感器的讀數(shù)、網(wǎng)站或應(yīng)用程序上的用戶交互或金融市場(chǎng)上的交易活動(dòng)等。 時(shí)序

    2024年02月13日
    瀏覽(28)
  • 時(shí)間序列預(yù)測(cè) | Matlab基于粒子群算法優(yōu)化門(mén)控循環(huán)單元(PSO-GRU)的時(shí)間序列預(yù)測(cè),PSO-GRU時(shí)間序列預(yù)測(cè),單列數(shù)據(jù)集

    時(shí)間序列預(yù)測(cè) | Matlab基于粒子群算法優(yōu)化門(mén)控循環(huán)單元(PSO-GRU)的時(shí)間序列預(yù)測(cè),PSO-GRU時(shí)間序列預(yù)測(cè),單列數(shù)據(jù)集

    效果一覽 文章概述 時(shí)間序列預(yù)測(cè) | Matlab基于粒子群算法優(yōu)化門(mén)控循環(huán)單元(PSO-GRU)的時(shí)間序列預(yù)測(cè),PSO-GRU時(shí)間序列預(yù)測(cè),單列數(shù)據(jù)集。

    2024年02月12日
    瀏覽(24)
  • 【深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)案例】零基礎(chǔ)入門(mén)經(jīng)典深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)項(xiàng)目實(shí)戰(zhàn)(附代碼+數(shù)據(jù)集+原理介紹)

    【深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)案例】零基礎(chǔ)入門(mén)經(jīng)典深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)項(xiàng)目實(shí)戰(zhàn)(附代碼+數(shù)據(jù)集+原理介紹)

    ??注意?? :最近經(jīng)粉絲反饋,發(fā)現(xiàn)有些訂閱者將此專欄內(nèi)容進(jìn)行二次售賣,特在此聲明,本專欄內(nèi)容僅供學(xué)習(xí),不得以任何方式進(jìn)行售賣,未經(jīng)作者許可不得對(duì)本專欄內(nèi)容行使發(fā)表權(quán)、署名權(quán)、修改權(quán)、發(fā)行權(quán)、轉(zhuǎn)賣權(quán)、信息網(wǎng)絡(luò)傳播權(quán),如有違者,追究其法律責(zé)任。 ??

    2023年04月15日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包