国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【量化課程】08_2.深度學(xué)習(xí)量化策略基礎(chǔ)實戰(zhàn)

這篇具有很好參考價值的文章主要介紹了【量化課程】08_2.深度學(xué)習(xí)量化策略基礎(chǔ)實戰(zhàn)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 深度學(xué)習(xí)簡介

深度學(xué)習(xí)是模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)。

2. 常用深度學(xué)習(xí)模型架構(gòu)

  • 深度神經(jīng)網(wǎng)絡(luò)(DNN)
  • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
  • 馬爾可夫鏈(MC)
  • 玻爾茲曼機(jī)(BM)
  • 生成對抗網(wǎng)絡(luò)(GAN)
  • 長短期記憶網(wǎng)絡(luò)(LSTM)

2.1 LSTM 介紹

長短期記憶網(wǎng)絡(luò)(LSTM)是一種常用于處理序列數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變體,被廣泛應(yīng)用于自然語言處理、語音識別、時間序列預(yù)測等任務(wù)中。

LSTM通過門控機(jī)制解決了傳統(tǒng)RNN中的梯度問題,能夠有效地處理序列數(shù)據(jù),并在多個領(lǐng)域取得了顯著的成果。

2.2 LSTM在股票預(yù)測中的應(yīng)用

LSTM在量化預(yù)測股票方面被廣泛應(yīng)用。它可以利用歷史股票價格和交易量等數(shù)據(jù)來學(xué)習(xí)股票價格的趨勢和波動,從而進(jìn)行未來的預(yù)測。

在股票預(yù)測中,LSTM可以接受時間序列數(shù)據(jù)作為輸入,并通過遞歸地更新隱藏狀態(tài)來捕獲長期依賴關(guān)系。它可以通過學(xué)習(xí)歷史價格和交易量等特征的模式,對未來的股票價格進(jìn)行預(yù)測。

通過將股票歷史數(shù)據(jù)作為訓(xùn)練樣本,LSTM可以學(xué)習(xí)不同時間尺度上的模式,例如每日、每周或每月的波動情況。它還可以利用技術(shù)指標(biāo)、市場情緒數(shù)據(jù)等輔助信息,以提高預(yù)測準(zhǔn)確性。

在實際應(yīng)用中,研究人員和投資者通過訓(xùn)練LSTM模型來預(yù)測股票的價格趨勢、波動情況和交易信號。這些預(yù)測結(jié)果可以用于制定投資策略、風(fēng)險管理和決策制定等方面。

需要注意的是,股票市場受到多種因素的影響,包括經(jīng)濟(jì)因素、政治事件和市場心理等。LSTM在股票預(yù)測中的應(yīng)用并不是完全準(zhǔn)確的,因此在實際應(yīng)用中需要結(jié)合其他因素進(jìn)行綜合分析和決策。此外,過度依賴LSTM模型所做的預(yù)測結(jié)果也可能存在風(fēng)險,投資者仍需謹(jǐn)慎分析和評估。

3. 模塊分類

3.1 卷積層

卷積層是深度學(xué)習(xí)中的基本層之一,通過卷積操作對輸入數(shù)據(jù)進(jìn)行特征提取和特征映射,并利用參數(shù)共享和局部連接等機(jī)制提高模型的參數(shù)效率。

  • 一維卷積層
  • 二維卷積層
  • 三維卷積層

3.2 池化層

平均池化和最大池化是卷積神經(jīng)網(wǎng)絡(luò)中常用的池化操作,用于減少特征圖的維度,并提取出重要的特征信息。

  • 平均池化
  • 最大池化

3.3 全連接層

全連接層是神經(jīng)網(wǎng)絡(luò)中的一種常見層類型。在全連接層中,每個輸入神經(jīng)元與輸出層中的每個神經(jīng)元都有連接。每個連接都有一個權(quán)重,用于調(diào)整輸入神經(jīng)元對于輸出神經(jīng)元的影響。全連接層的輸出可以通過激活函數(shù)進(jìn)行非線性變換。

3.4 Dropout層

Dropout層是一種正則化技術(shù),用于在訓(xùn)練過程中隨機(jī)丟棄一部分輸入神經(jīng)元,以減少過擬合的風(fēng)險。Dropout層通過隨機(jī)斷開神經(jīng)元之間的連接來實現(xiàn)丟棄操作。在每個訓(xùn)練迭代中,Dropout層會隨機(jī)選擇一些神經(jīng)元進(jìn)行丟棄,并在前向傳播和反向傳播過程中不使用這些丟棄的神經(jīng)元。

4. 深度學(xué)習(xí)模型構(gòu)建

  1. 通過模塊堆疊將輸入層、中間層、輸出層連接,然后構(gòu)建模塊進(jìn)行初始化
  2. 訓(xùn)練模型
  3. 模型預(yù)測

5. 策略實現(xiàn)

本部分將介紹如何在BigQuant實現(xiàn)一個基于LSTM的選股策略

from biglearning.api import M
from biglearning.api import tools as T
from bigdatasource.api import DataSource
from biglearning.module2.common.data import Outputs
from zipline.finance.commission import PerOrder
import pandas as pd
import math


# LSTM模型訓(xùn)練和預(yù)測
def m4_run_bigquant_run(input_1, input_2, input_3):
    df =  input_1.read_pickle()
    feature_len = len(input_2.read_pickle())
    
    df['x'] = df['x'].reshape(df['x'].shape[0], int(feature_len), int(df['x'].shape[1]/feature_len))
    
    data_1 = DataSource.write_pickle(df)
    return Outputs(data_1=data_1)


# LSTM模型訓(xùn)練和預(yù)測的后處理
def m4_post_run_bigquant_run(outputs):
    return outputs


# LSTM模型訓(xùn)練和預(yù)測
def m8_run_bigquant_run(input_1, input_2, input_3):
    df =  input_1.read_pickle()
    feature_len = len(input_2.read_pickle())
    
    df['x'] = df['x'].reshape(df['x'].shape[0], int(feature_len), int(df['x'].shape[1]/feature_len))
    
    data_1 = DataSource.write_pickle(df)
    return Outputs(data_1=data_1)


# LSTM模型訓(xùn)練和預(yù)測的后處理
def m8_post_run_bigquant_run(outputs):
    return outputs


# 模型評估和排序
def m24_run_bigquant_run(input_1, input_2, input_3):
    pred_label = input_1.read_pickle()
    df = input_2.read_df()
    df = pd.DataFrame({'pred_label':pred_label[:,0], 'instrument':df.instrument, 'date':df.date})
    df.sort_values(['date','pred_label'],inplace=True, ascending=[True,False])
    return Outputs(data_1=DataSource.write_df(df), data_2=None, data_3=None)


# 模型評估和排序的后處理
def m24_post_run_bigquant_run(outputs):
    return outputs


# 初始化策略
def m19_initialize_bigquant_run(context):
    # 從options中讀取數(shù)據(jù)
    context.ranker_prediction = context.options['data'].read_df()
    # 設(shè)置傭金費率
    context.set_commission(PerOrder(buy_cost=0.0003, sell_cost=0.0013, min_cost=5))
    stock_count = 30
    # 根據(jù)股票數(shù)量設(shè)置權(quán)重
    context.stock_weights = T.norm([1 / math.log(i + 2) for i in range(0, stock_count)])
    context.max_cash_per_instrument = 0.9
    context.options['hold_days'] = 5


# 處理每個交易日的數(shù)據(jù)
def m19_handle_data_bigquant_run(context, data):
    # 獲取當(dāng)日的預(yù)測結(jié)果
    ranker_prediction = context.ranker_prediction[
        context.ranker_prediction.date == data.current_dt.strftime('%Y-%m-%d')]

    is_staging = context.trading_day_index < context.options['hold_days']
    cash_avg = context.portfolio.portfolio_value / context.options['hold_days']
    cash_for_buy = min(context.portfolio.cash, (1 if is_staging else 1.5) * cash_avg)
    cash_for_sell = cash_avg - (context.portfolio.cash - cash_for_buy)
    positions = {e.symbol: p.amount * p.last_sale_price
                 for e, p in context.perf_tracker.position_tracker.positions.items()}

    if not is_staging and cash_for_sell > 0:
        equities = {e.symbol: e for e, p in context.perf_tracker.position_tracker.positions.items()}
        instruments = list(reversed(list(ranker_prediction.instrument[ranker_prediction.instrument.apply(
                lambda x: x in equities and not context.has_unfinished_sell_order(equities[x]))])))

        for instrument in instruments:
            context.order_target(context.symbol(instrument), 0)
            cash_for_sell -= positions[instrument]
            if cash_for_sell <= 0:
                break

    buy_cash_weights = context.stock_weights
    buy_instruments = list(ranker_prediction.instrument[:len(buy_cash_weights)])
    max_cash_per_instrument = context.portfolio.portfolio_value * context.max_cash_per_instrument
    for i, instrument in enumerate(buy_instruments):
        cash = cash_for_buy * buy_cash_weights[i]
        if cash > max_cash_per_instrument - positions.get(instrument, 0):
            cash = max_cash_per_instrument - positions.get(instrument, 0)
        if cash > 0:
            context.order_value(context.symbol(instrument), cash)

# 準(zhǔn)備工作
def m19_prepare_bigquant_run(context):
    pass

# 獲取2020年至2021年股票數(shù)據(jù)
m1 = M.instruments.v2(
    start_date='2020-01-01',
    end_date='2021-01-01',
    market='CN_STOCK_A',
    instrument_list=' ',
    max_count=0
)

# 使用高級自動標(biāo)注器獲取標(biāo)簽
m2 = M.advanced_auto_labeler.v2(
    instruments=m1.data,
    label_expr="""
shift(close, -5) / shift(open, -1)-1

clip(label, all_quantile(label, 0.01), all_quantile(label, 0.99))

where(shift(high, -1) == shift(low, -1), NaN, label)
""",
    start_date='',
    end_date='',
    benchmark='000300.SHA',
    drop_na_label=True,
    cast_label_int=False
)

# 標(biāo)準(zhǔn)化標(biāo)簽數(shù)據(jù)
m13 = M.standardlize.v8(
    input_1=m2.data,
    columns_input='label'
)

# 輸入特征
m3 = M.input_features.v1(
    features="""close_0/mean(close_0,5)
close_0/mean(close_0,10)
close_0/mean(close_0,20)
close_0/open_0
open_0/mean(close_0,5)
open_0/mean(close_0,10)
open_0/mean(close_0,20)"""
)

# 抽取基礎(chǔ)特征
m15 = M.general_feature_extractor.v7(
    instruments=m1.data,
    features=m3.data,
    start_date='',
    end_date='',
    before_start_days=30
)

# 提取派生特征
m16 = M.derived_feature_extractor.v3(
    input_data=m15.data,
    features=m3.data,
    date_col='date',
    instrument_col='instrument',
    drop_na=True,
    remove_extra_columns=False
)

# 標(biāo)準(zhǔn)化基礎(chǔ)特征
m14 = M.standardlize.v8(
    input_1=m16.data,
    input_2=m3.data,
    columns_input='[]'
)

# 合并標(biāo)簽和特征
m7 = M.join.v3(
    data1=m13.data,
    data2=m14.data,
    on='date,instrument',
    how='inner',
    sort=False
)

# 將特征轉(zhuǎn)換成二進(jìn)制數(shù)據(jù)
m26 = M.dl_convert_to_bin.v2(
    input_data=m7.data,
    features=m3.data,
    window_size=5,
    feature_clip=5,
    flatten=True,
    window_along_col='instrument'
)

# 使用m4_run_bigquant_run函數(shù)運行緩存模式
m4 = M.cached.v3(
    input_1=m26.data,
    input_2=m3.data,
    run=m4_run_bigquant_run,
    post_run=m4_post_run_bigquant_run,
    input_ports='',
    params='{}',
    output_ports=''
)

# 獲取2021年至2022年股票數(shù)據(jù)
m9 = M.instruments.v2(
    start_date=T.live_run_param('trading_date', '2021-01-01'),
    end_date=T.live_run_param('trading_date', '2022-01-01'),
    market='CN_STOCK_A',
    instrument_list='',
    max_count=0
)

# 抽取基礎(chǔ)特征
m17 = M.general_feature_extractor.v7(
    instruments=m9.data,
    features=m3.data,
    start_date='',
    end_date='',
    before_start_days=30
)

# 提取派生特征
m18 = M.derived_feature_extractor.v3(
    input_data=m17.data,
    features=m3.data,
    date_col='date',
    instrument_col='instrument',
    drop_na=True,
    remove_extra_columns=False
)

# 標(biāo)準(zhǔn)化基礎(chǔ)特征
m25 = M.standardlize.v8(
    input_1=m18.data,
    input_2=m3.data,
    columns_input='[]'
)

# 將特征轉(zhuǎn)換成二進(jìn)制數(shù)據(jù)
m27 = M.dl_convert_to_bin.v2(
    input_data=m25.data,
    features=m3.data,
    window_size=5,
    feature_clip=5,
    flatten=True,
    window_along_col='instrument'
)

# 使用m8_run_bigquant_run函數(shù)運行緩存模式
m8 = M.cached.v3(
    input_1=m27.data,
    input_2=m3.data,
    run=m8_run_bigquant_run,
    post_run=m8_post_run_bigquant_run,
    input_ports='',
    params='{}',
    output_ports=''
)

# 構(gòu)造LSTM模型的輸入層
m6 = M.dl_layer_input.v1(
    shape='7,5',
    batch_shape='',
    dtype='float32',
    sparse=False,
    name=''
)

# 構(gòu)造LSTM模型的LSTM層
m10 = M.dl_layer_lstm.v1(
    inputs=m6.data,
    units=32,
    activation='tanh',
    recurrent_activation='hard_sigmoid',
    use_bias=True,
    kernel_initializer='glorot_uniform',
    recurrent_initializer='Orthogonal',
    bias_initializer='Zeros',
    unit_forget_bias=True,
    kernel_regularizer='None',
    kernel_regularizer_l1=0,
    kernel_regularizer_l2=0,
    recurrent_regularizer='None',
    recurrent_regularizer_l1=0,
    recurrent_regularizer_l2=0,
    bias_regularizer='None',
    bias_regularizer_l1=0,
    bias_regularizer_l2=0,
    activity_regularizer='None',
    activity_regularizer_l1=0,
    activity_regularizer_l2=0,
    kernel_constraint='None',
    recurrent_constraint='None',
    bias_constraint='None',
    dropout=0,
    recurrent_dropout=0,
    return_sequences=False,
    implementation='0',
    name=''
)

# 構(gòu)造LSTM模型的Dropout層
m12 = M.dl_layer_dropout.v1(
    inputs=m10.data,
    rate=0.2,
    noise_shape='',
    name=''
)

# 構(gòu)造LSTM模型的全連接層1
m20 = M.dl_layer_dense.v1(
    inputs=m12.data,
    units=30,
    activation='tanh',
    use_bias=True,
    kernel_initializer='glorot_uniform',
    bias_initializer='Zeros',
    kernel_regularizer='None',
    kernel_regularizer_l1=0,
    kernel_regularizer_l2=0,
    bias_regularizer='None',
    bias_regularizer_l1=0,
    bias_regularizer_l2=0,
    activity_regularizer='None',
    activity_regularizer_l1=0,
    activity_regularizer_l2=0,
    kernel_constraint='None',
    bias_constraint='None',
    name=''
)

# 構(gòu)造LSTM模型的Dropout層2
m21 = M.dl_layer_dropout.v1(
    inputs=m20.data,
    rate=0.2,
    noise_shape='',
    name=''
)

# 構(gòu)造LSTM模型的全連接層2
m22 = M.dl_layer_dense.v1(
    inputs=m21.data,
    units=1,
    activation='tanh',
    use_bias=True,
    kernel_initializer='glorot_uniform',
    bias_initializer='Zeros',
    kernel_regularizer='None',
    kernel_regularizer_l1=0,
    kernel_regularizer_l2=0,
    bias_regularizer='None',
    bias_regularizer_l1=0,
    bias_regularizer_l2=0,
    activity_regularizer='None',
    activity_regularizer_l1=0,
    activity_regularizer_l2=0,
    kernel_constraint='None',
    bias_constraint='None',
    name=''
)

# 初始化LSTM模型
m34 = M.dl_model_init.v1(
    inputs=m6.data,
    outputs=m22.data
)

# 訓(xùn)練LSTM模型
m5 = M.dl_model_train.v1(
    input_model=m34.data,
    training_data=m4.data_1,
    optimizer='RMSprop',
    loss='mean_squared_error',
    metrics='mae',
    batch_size=256,
    epochs=5,
    n_gpus=0,
    verbose='2:每個epoch輸出一行記錄'
)

# 使用LSTM模型進(jìn)行預(yù)測
m11 = M.dl_model_predict.v1(
    trained_model=m5.data,
    input_data=m8.data_1,
    batch_size=1024,
    n_gpus=0,
    verbose='2:每個epoch輸出一行記錄'
)

# 使用m24_run_bigquant_run函數(shù)運行緩存模式
m24 = M.cached.v3(
    input_1=m11.data,
    input_2=m18.data,
    run=m24_run_bigquant_run,
    post_run=m24_post_run_bigquant_run,
    input_ports='',
    params='{}',
    output_ports=''
)

# 執(zhí)行交易
m19 = M.trade.v4(
    instruments=m9.data,
    options_data=m24.data_1,
    start_date='',
    end_date='',
    initialize=m19_initialize_bigquant_run,
    handle_data=m19_handle_data_bigquant_run,
    prepare=m19_prepare_bigquant_run,
    volume_limit=0.025,
    order_price_field_buy='open',
    order_price_field_sell='close',
    capital_base=1000000,
    auto_cancel_non_tradable_orders=True,
    data_frequency='daily',
    price_type='后復(fù)權(quán)',
    product_type='股票',
    plot_charts=True,
    backtest_only=False,
    benchmark='000300.SHA'
)

【量化課程】08_2.深度學(xué)習(xí)量化策略基礎(chǔ)實戰(zhàn),課程設(shè)計,量化,投資,金融文章來源地址http://www.zghlxwxcb.cn/news/detail-648690.html

到了這里,關(guān)于【量化課程】08_2.深度學(xué)習(xí)量化策略基礎(chǔ)實戰(zhàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • opencv/深度學(xué)習(xí)框架/圖像識別零基礎(chǔ)學(xué)習(xí)課程(代碼+視頻+詳細(xì)pdf資料)

    opencv/深度學(xué)習(xí)框架/圖像識別零基礎(chǔ)學(xué)習(xí)課程(代碼+視頻+詳細(xì)pdf資料)

    學(xué)習(xí)掌握OpenCV的所有必要知識是成為一名優(yōu)秀計算機(jī)視覺工程師的必經(jīng)之路。 通過深入學(xué)習(xí)OpenCV的圖像處理、圖像分割、特征提取、目標(biāo)跟蹤、機(jī)器學(xué)習(xí) 等相關(guān)知識,可以讓你在面試中更有信心,同時也能夠更加流暢地編寫高效的代碼。不僅如此,了解OpenCV的擴(kuò)展功能和最

    2024年02月12日
    瀏覽(21)
  • 【量化課程】02_3.投資學(xué)基礎(chǔ)概念

    【量化課程】02_3.投資學(xué)基礎(chǔ)概念

    1.1 什么是投資? 投資是為了獲得可能但并不確定的未來值(Future value)而作出犧牲確定的現(xiàn)值(Present value)的行為。(William F.Sharpe,1990年獲得諾貝爾經(jīng)濟(jì)學(xué)獎) 投資有三大特點 投資的時間性:資金具有時間價值,是犧牲當(dāng)前消費(Reduced current consumption)和計劃未來消費(

    2024年02月12日
    瀏覽(43)
  • Python人工智能教學(xué)之掌握機(jī)器學(xué)習(xí)深度學(xué)習(xí)并提升實戰(zhàn)能力(共72個視頻教學(xué)+課程資料)云盤下載

    Python人工智能教學(xué)之掌握機(jī)器學(xué)習(xí)深度學(xué)習(xí)并提升實戰(zhàn)能力(共72個視頻教學(xué)+課程資料)云盤下載

    人工智能是未來的發(fā)展方向,掌握了人工智能,就掌握了錢圖。。。 Python人工智能教學(xué)之掌握機(jī)器學(xué)習(xí)深度學(xué)習(xí)并提升實戰(zhàn)能力(共72個視頻教學(xué)+課程資料) 下載地址: 鏈接:https://pan.baidu.com/s/1ryJd5PNx1tLDDU-Q6JFXPQ?pwd=n6o8 提取碼:n6o8 --來自百度網(wǎng)盤超級會員V2的分享 └─ 批

    2024年04月29日
    瀏覽(30)
  • 08-03 底層數(shù)據(jù)設(shè)計策略——高可用數(shù)據(jù)

    數(shù)據(jù)備份 冷備 (歷史訂單、業(yè)務(wù)報表、時效性不高):最最最壞情況下才會用 低成本 定時 數(shù)據(jù)丟失 不一致 熱備 同步熱備(一個庫提交成功,別的提交失敗,不容易控制) 主從熱備 數(shù)據(jù)鏡像 增量同步 數(shù)據(jù)異構(gòu) 加入根據(jù)訂單id做分庫分表的標(biāo)識,但是需要根據(jù)用戶id去查

    2024年02月04日
    瀏覽(48)
  • 深度學(xué)習(xí)入門實戰(zhàn)1——基礎(chǔ)實戰(zhàn)

    本文包含內(nèi)容: ????????線性回歸、softmax回歸、MNIST圖像分類、多層感知機(jī)、模型選擇、欠擬合、過擬合問題、權(quán)重衰減、丟棄法、正向傳播、反向傳播、計算圖、數(shù)值穩(wěn)定性模型初始化、Kaggle實戰(zhàn):房價預(yù)測。 (來源:d2l-zh-pytorch) 完整版: 簡潔版: 完整版 簡潔版:

    2024年02月08日
    瀏覽(10)
  • PyTorch深度學(xué)習(xí)實戰(zhàn)(2)——PyTorch基礎(chǔ)

    PyTorch 是廣泛應(yīng)用于機(jī)器學(xué)習(xí)領(lǐng)域中的強(qiáng)大開源框架,因其易用性和高效性備受青睞。在本節(jié)中,將介紹使用 PyTorch 構(gòu)建神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識。首先了解 PyTorch 的核心數(shù)據(jù)類型——張量對象。然后,我們將深入研究用于張量對象的各種操作。 PyTorch 提供了許多幫助構(gòu)建神經(jīng)網(wǎng)

    2024年02月09日
    瀏覽(20)
  • PyTorch深度學(xué)習(xí)實戰(zhàn)(5)——計算機(jī)視覺基礎(chǔ)

    計算機(jī)視覺是指通過計算機(jī)系統(tǒng)對圖像和視頻進(jìn)行處理和分析,利用計算機(jī)算法和方法,使計算機(jī)能夠模擬和理解人類的視覺系統(tǒng)。通過計算機(jī)視覺技術(shù),計算機(jī)可以從圖像和視頻中提取有用的信息,實現(xiàn)對環(huán)境的感知和理解,從而幫助人們解決各種問題和提高效率。本節(jié)中

    2024年02月16日
    瀏覽(21)
  • 深度學(xué)習(xí)模型量化、剪枝、壓縮

    深度學(xué)習(xí)模型量化、剪枝、壓縮

    fp16是指采用2字節(jié)(16位)進(jìn)行編碼存儲的一種數(shù)據(jù)類型; fp32是指采用4字節(jié)(32位); fp16 和 fp32 相比對訓(xùn)練的優(yōu)化: 1. 內(nèi)存占用減少 :應(yīng)用fp16內(nèi)存占用比原來更小,可以設(shè)置更大的batch_size 2. 加速計算 :加速計算只在最近的一些新gpu中,這一塊我還沒有體驗到好處...有論文指出

    2024年02月16日
    瀏覽(51)
  • 【深度學(xué)習(xí)時間序列預(yù)測案例】零基礎(chǔ)入門經(jīng)典深度學(xué)習(xí)時間序列預(yù)測項目實戰(zhàn)(附代碼+數(shù)據(jù)集+原理介紹)

    【深度學(xué)習(xí)時間序列預(yù)測案例】零基礎(chǔ)入門經(jīng)典深度學(xué)習(xí)時間序列預(yù)測項目實戰(zhàn)(附代碼+數(shù)據(jù)集+原理介紹)

    ??注意?? :最近經(jīng)粉絲反饋,發(fā)現(xiàn)有些訂閱者將此專欄內(nèi)容進(jìn)行二次售賣,特在此聲明,本專欄內(nèi)容僅供學(xué)習(xí),不得以任何方式進(jìn)行售賣,未經(jīng)作者許可不得對本專欄內(nèi)容行使發(fā)表權(quán)、署名權(quán)、修改權(quán)、發(fā)行權(quán)、轉(zhuǎn)賣權(quán)、信息網(wǎng)絡(luò)傳播權(quán),如有違者,追究其法律責(zé)任。 ??

    2023年04月15日
    瀏覽(27)
  • 【深度學(xué)習(xí)基礎(chǔ)】反向傳播BP算法原理詳解及實戰(zhàn)演示(附源碼)

    【深度學(xué)習(xí)基礎(chǔ)】反向傳播BP算法原理詳解及實戰(zhàn)演示(附源碼)

    需要源碼請點贊關(guān)注收藏后評論區(qū)留言私信~~~ 神經(jīng)網(wǎng)絡(luò)的設(shè)計靈感來源于生物學(xué)上的神經(jīng)網(wǎng)絡(luò)。如圖所示,每個節(jié)點就是一個神經(jīng)元,神經(jīng)元與神經(jīng)元之間的連線表示信息傳遞的方向。Layer 1表示輸入層,Layer 2、Layer 3表示隱藏層,Layer 4表示輸出層。我們希望通過神經(jīng)網(wǎng)絡(luò),

    2024年01月21日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包