国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝

這篇具有很好參考價(jià)值的文章主要介紹了實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

PyTorch剪枝方法詳解,附詳細(xì)代碼。

  • 一,剪枝分類

  • 1.1,非結(jié)構(gòu)化剪枝

  • 1.2,結(jié)構(gòu)化剪枝

  • 1.3,本地與全局修剪

  • 二,PyTorch 的剪枝

  • 2.1,pytorch 剪枝工作原理

  • 2.2,局部剪枝

  • 2.3,全局非結(jié)構(gòu)化剪枝

  • 三,總結(jié)

  • 參考資料

一,剪枝分類

所謂模型剪枝,其實(shí)是一種從神經(jīng)網(wǎng)絡(luò)中移除"不必要"權(quán)重或偏差(weigths/bias)的模型壓縮技術(shù)。關(guān)于什么參數(shù)才是“不必要的”,這是一個目前依然在研究的領(lǐng)域。

1.1,非結(jié)構(gòu)化剪枝

非結(jié)構(gòu)化剪枝(Unstructured Puning)是指修剪參數(shù)的單個元素,比如全連接層中的單個權(quán)重、卷積層中的單個卷積核參數(shù)元素或者自定義層中的浮點(diǎn)數(shù)(scaling floats)。其重點(diǎn)在于,剪枝權(quán)重對象是隨機(jī)的,沒有特定結(jié)構(gòu),因此被稱為非結(jié)構(gòu)化剪枝。

1.2,結(jié)構(gòu)化剪枝

與非結(jié)構(gòu)化剪枝相反,結(jié)構(gòu)化剪枝會剪枝整個參數(shù)結(jié)構(gòu)。比如,丟棄整行或整列的權(quán)重,或者在卷積層中丟棄整個過濾器(Filter)。

1.3,本地與全局修剪

剪枝可以在每層(局部)或多層/所有層(全局)上進(jìn)行。

二,PyTorch 的剪枝

目前 PyTorch 框架支持的權(quán)重剪枝方法有:

  • Random: 簡單地修剪隨機(jī)參數(shù)。

  • Magnitude: 修剪權(quán)重最小的參數(shù)(例如它們的 L2 范數(shù))

以上兩種方法實(shí)現(xiàn)簡單、計(jì)算容易,且可以在沒有任何數(shù)據(jù)的情況下應(yīng)用。

2.1,pytorch 剪枝工作原理

剪枝功能在 torch.nn.utils.prune 類中實(shí)現(xiàn),代碼在文件 torch/nn/utils/prune.py 中,主要剪枝類如下圖所示。

實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝,學(xué)習(xí)筆記,pytorch,剪枝,人工智能

pytorch_pruning_api_file.png

剪枝原理是基于張量(Tensor)的掩碼(Mask)實(shí)現(xiàn)。掩碼是一個與張量形狀相同的布爾類型的張量,掩碼的值為 True 表示相應(yīng)位置的權(quán)重需要保留,掩碼的值為 False 表示相應(yīng)位置的權(quán)重可以被刪除。

Pytorch 將原始參數(shù) <param> 復(fù)制到名為 <param>_original 的參數(shù)中,并創(chuàng)建一個緩沖區(qū)來存儲剪枝掩碼 <param>_mask。同時(shí),其也會創(chuàng)建一個模塊級的 forward_pre_hook 回調(diào)函數(shù)(在模型前向傳播之前會被調(diào)用的回調(diào)函數(shù)),將剪枝掩碼應(yīng)用于原始權(quán)重。

pytorch 剪枝的 api 和教程比較混亂,我個人將做了如下表格,希望能將 api 和剪枝方法及分類總結(jié)好。

實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝,學(xué)習(xí)筆記,pytorch,剪枝,人工智能

pytorch_pruning_api

pytorch 中進(jìn)行模型剪枝的工作流程如下:

  1. 選擇剪枝方法(或者子類化 BasePruningMethod 實(shí)現(xiàn)自己的剪枝方法)。

  2. 指定剪枝模塊和參數(shù)名稱。

  3. 設(shè)置剪枝方法的參數(shù),比如剪枝比例等。

2.2,局部剪枝

Pytorch 框架中的局部剪枝有非結(jié)構(gòu)化和結(jié)構(gòu)化剪枝兩種類型,值得注意的是結(jié)構(gòu)化剪枝只支持局部不支持全局。

2.2.1,局部非結(jié)構(gòu)化剪枝

1,局部非結(jié)構(gòu)化剪枝(Locall Unstructured Pruning)對應(yīng)函數(shù)原型如下:

def random_unstructured(module, name, amount)  

1,函數(shù)功能:用于對權(quán)重參數(shù)張量進(jìn)行非結(jié)構(gòu)化剪枝。該方法會在張量中隨機(jī)選擇一些權(quán)重或連接進(jìn)行剪枝,剪枝率由用戶指定。2,函數(shù)參數(shù)定義:

  • module (nn.Module): 需要剪枝的網(wǎng)絡(luò)層/模塊,例如 nn.Conv2d() 和 nn.Linear()。

  • name (str): 要剪枝的參數(shù)名稱,比如 “weight” 或 “bias”。

  • amount (int or float): 指定要剪枝的數(shù)量,如果是 0~1 之間的小數(shù),則表示剪枝比例;如果是證書,則直接剪去參數(shù)的絕對數(shù)量。比如amount=0.2 ,表示將隨機(jī)選擇 20% 的元素進(jìn)行剪枝。

3,下面是 random_unstructured 函數(shù)的使用示例。

import torch  
import torch.nn.utils.prune as prune  
conv = torch.nn.Conv2d(1, 1, 4)  
prune.random_unstructured(conv, name="weight", amount=0.5)  
conv.weight  
"""  
tensor([[[[-0.1703,  0.0000, -0.0000,  0.0690],  
          [ 0.1411,  0.0000, -0.0000, -0.1031],  
          [-0.0527,  0.0000,  0.0640,  0.1666],  
          [ 0.0000, -0.0000, -0.0000,  0.2281]]]], grad_fn=<MulBackward0>)  
"""  

可以看出輸出的 conv 層中權(quán)重值有一半比例為 0

2.2.2,局部結(jié)構(gòu)化剪枝

局部結(jié)構(gòu)化剪枝(Locall Structured Pruning)有兩種函數(shù),對應(yīng)函數(shù)原型如下:

def random_structured(module, name, amount, dim)  
def ln_structured(module, name, amount, n, dim, importance_scores=None)  

1,函數(shù)功能

與非結(jié)構(gòu)化移除的是連接權(quán)重不同,結(jié)構(gòu)化剪枝移除的是整個通道權(quán)重。

2,參數(shù)定義

與局部非結(jié)構(gòu)化函數(shù)非常相似,唯一的區(qū)別是您必須定義 dim 參數(shù)(ln_structured 函數(shù)多了 n 參數(shù))。

n 表示剪枝的范數(shù),dim 表示剪枝的維度。

對于 torch.nn.Linear:

  • dim = 0:移除一個神經(jīng)元。

  • dim = 1:移除與一個輸入的所有連接。

對于 torch.nn.Conv2d:

  • dim = 0(Channels) : 通道 channels 剪枝/過濾器 filters 剪枝

  • dim = 1(Neurons): 二維卷積核 kernel 剪枝,即與輸入通道相連接的 kernel

2.2.3,局部結(jié)構(gòu)化剪枝示例代碼

在寫示例代碼之前,我們先需要理解 Conv2d 函數(shù)參數(shù)、卷積核 shape、軸以及張量的關(guān)系。首先,Conv2d 函數(shù)原型如下;

class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)  

而 pytorch 中常規(guī)卷積的卷積核權(quán)重 shape 都為(C_out, C_in, kernel_height, kernel_width),所以在代碼中卷積層權(quán)重 shape[3, 2, 3, 3],dim = 0 對應(yīng)的是 shape [3, 2, 3, 3] 中的 3。這里我們 dim 設(shè)定了哪個軸,那自然剪枝之后權(quán)重張量對應(yīng)的軸機(jī)會發(fā)生變換。

實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝,學(xué)習(xí)筆記,pytorch,剪枝,人工智能

dim

理解了前面的關(guān)鍵概念,下面就可以實(shí)際使用了,dim=0 的示例如下所示。

conv = torch.nn.Conv2d(2, 3, 3)  
norm1 = torch.norm(conv.weight, p=1, dim=[1,2,3])  
print(norm1)  
"""  
tensor([1.9384, 2.3780, 1.8638], grad_fn=<NormBackward1>)  
"""  
prune.ln_structured(conv, name="weight", amount=1, n=2, dim=0)  
print(conv.weight)  
"""  
tensor([[[[-0.0005,  0.1039,  0.0306],  
          [ 0.1233,  0.1517,  0.0628],  
          [ 0.1075, -0.0606,  0.1140]],  
  
         [[ 0.2263, -0.0199,  0.1275],  
          [-0.0455, -0.0639, -0.2153],  
          [ 0.1587, -0.1928,  0.1338]]],  
  
  
        [[[-0.2023,  0.0012,  0.1617],  
          [-0.1089,  0.2102, -0.2222],  
          [ 0.0645, -0.2333, -0.1211]],  
  
         [[ 0.2138, -0.0325,  0.0246],  
          [-0.0507,  0.1812, -0.2268],  
          [-0.1902,  0.0798,  0.0531]]],  
  
  
        [[[ 0.0000, -0.0000, -0.0000],  
          [ 0.0000, -0.0000, -0.0000],  
          [ 0.0000, -0.0000,  0.0000]],  
  
         [[ 0.0000,  0.0000,  0.0000],  
          [-0.0000,  0.0000,  0.0000],  
          [-0.0000, -0.0000, -0.0000]]]], grad_fn=<MulBackward0>)  
"""  

從運(yùn)行結(jié)果可以明顯看出,卷積層參數(shù)的最后一個通道參數(shù)張量被移除了(為 0 張量),其解釋參見下圖。

實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝,學(xué)習(xí)筆記,pytorch,剪枝,人工智能

dim_understand

dim = 1 的情況:

conv = torch.nn.Conv2d(2, 3, 3)  
norm1 = torch.norm(conv.weight, p=1, dim=[0, 2,3])  
print(norm1)  
"""  
tensor([3.1487, 3.9088], grad_fn=<NormBackward1>)  
"""  
prune.ln_structured(conv, name="weight", amount=1, n=2, dim=1)  
print(conv.weight)  
"""  
tensor([[[[ 0.0000, -0.0000, -0.0000],  
          [-0.0000,  0.0000,  0.0000],  
          [-0.0000,  0.0000, -0.0000]],  
  
         [[-0.2140,  0.1038,  0.1660],  
          [ 0.1265, -0.1650, -0.2183],  
          [-0.0680,  0.2280,  0.2128]]],  
  
  
        [[[-0.0000,  0.0000,  0.0000],  
          [ 0.0000,  0.0000, -0.0000],  
          [-0.0000, -0.0000, -0.0000]],  
  
         [[-0.2087,  0.1275,  0.0228],  
          [-0.1888, -0.1345,  0.1826],  
          [-0.2312, -0.1456, -0.1085]]],  
  
  
        [[[-0.0000,  0.0000,  0.0000],  
          [ 0.0000, -0.0000,  0.0000],  
          [ 0.0000, -0.0000,  0.0000]],  
  
         [[-0.0891,  0.0946, -0.1724],  
          [-0.2068,  0.0823,  0.0272],  
          [-0.2256, -0.1260, -0.0323]]]], grad_fn=<MulBackward0>)  
"""  

很明顯,對于 dim=1的維度,其第一個張量的 L2 范數(shù)更小,所以shape 為 [2, 3, 3] 的張量中,第一個 [3, 3] 張量參數(shù)會被移除(即張量為 0 矩陣) 。

2.3,全局非結(jié)構(gòu)化剪枝

前文的 local 剪枝的對象是特定網(wǎng)絡(luò)層,而 global 剪枝是將模型看作一個整體去移除指定比例(數(shù)量)的參數(shù),同時(shí) global 剪枝結(jié)果會導(dǎo)致模型中每層的稀疏比例是不一樣的。

全局非結(jié)構(gòu)化剪枝函數(shù)原型如下:

# v1.4.0 版本  
def global_unstructured(parameters, pruning_method, **kwargs)  
# v2.0.0-rc2版本  
def global_unstructured(parameters, pruning_method, importance_scores=None, **kwargs):  

1,函數(shù)功能

隨機(jī)選擇全局所有參數(shù)(包括權(quán)重和偏置)的一部分進(jìn)行剪枝,而不管它們屬于哪個層。

2,參數(shù)定義

  • parameters((Iterable of (module, name) tuples)): 修剪模型的參數(shù)列表,列表中的元素是 (module, name)。

  • pruning_method(function): 目前好像官方只支持 pruning_method=prune.L1Unstuctured,另外也可以是自己實(shí)現(xiàn)的非結(jié)構(gòu)化剪枝方法函數(shù)。

  • importance_scores: 表示每個參數(shù)的重要性得分,如果為 None,則使用默認(rèn)得分。

  • **kwargs: 表示傳遞給特定剪枝方法的額外參數(shù)。比如 amount 指定要剪枝的數(shù)量。

3,global_unstructured 函數(shù)的示例代碼如下所示。

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")  
  
class LeNet(nn.Module):  
    def __init__(self):  
        super(LeNet, self).__init__()  
        # 1 input image channel, 6 output channels, 3x3 square conv kernel  
        self.conv1 = nn.Conv2d(1, 6, 3)  
        self.conv2 = nn.Conv2d(6, 16, 3)  
        self.fc1 = nn.Linear(16 * 5 * 5, 120)  # 5x5 image dimension  
        self.fc2 = nn.Linear(120, 84)  
        self.fc3 = nn.Linear(84, 10)  
  
    def forward(self, x):  
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))  
        x = F.max_pool2d(F.relu(self.conv2(x)), 2)  
        x = x.view(-1, int(x.nelement() / x.shape[0]))  
        x = F.relu(self.fc1(x))  
        x = F.relu(self.fc2(x))  
        x = self.fc3(x)  
        return x  
  
model = LeNet().to(device=device)  
  
model = LeNet()  
  
parameters_to_prune = (  
    (model.conv1, 'weight'),  
    (model.conv2, 'weight'),  
    (model.fc1, 'weight'),  
    (model.fc2, 'weight'),  
    (model.fc3, 'weight'),  
)  
  
prune.global_unstructured(  
    parameters_to_prune,  
    pruning_method=prune.L1Unstructured,  
    amount=0.2,  
)  
# 計(jì)算卷積層和整個模型的稀疏度  
# 其實(shí)調(diào)用的是 Tensor.numel 內(nèi)內(nèi)函數(shù),返回輸入張量中元素的總數(shù)  
print(  
    "Sparsity in conv1.weight: {:.2f}%".format(  
        100. * float(torch.sum(model.conv1.weight == 0))  
        / float(model.conv1.weight.nelement())  
    )  
)  
print(  
    "Global sparsity: {:.2f}%".format(  
        100. * float(  
            torch.sum(model.conv1.weight == 0)  
            + torch.sum(model.conv2.weight == 0)  
            + torch.sum(model.fc1.weight == 0)  
            + torch.sum(model.fc2.weight == 0)  
            + torch.sum(model.fc3.weight == 0)  
        )  
        / float(  
            model.conv1.weight.nelement()  
            + model.conv2.weight.nelement()  
            + model.fc1.weight.nelement()  
            + model.fc2.weight.nelement()  
            + model.fc3.weight.nelement()  
        )  
    )  
)  
# 程序運(yùn)行結(jié)果  
"""  
Sparsity in conv1.weight: 3.70%  
Global sparsity: 20.00%  
"""  

運(yùn)行結(jié)果表明,雖然模型整體(全局)的稀疏度是 20%,但每個網(wǎng)絡(luò)層的稀疏度不一定是 20%。

三,總結(jié)

另外,pytorch 框架還提供了一些幫助函數(shù):

  1. torch.nn.utils.prune.is_pruned(module): 判斷模塊 是否被剪枝。

  2. torch.nn.utils.prune.remove(module, name):用于將指定模塊中指定參數(shù)上的剪枝操作移除,從而恢復(fù)該參數(shù)的原始形狀和數(shù)值。

雖然 PyTorch 提供了內(nèi)置剪枝 API ,也支持了一些非結(jié)構(gòu)化和結(jié)構(gòu)化剪枝方法,但是 API 比較混亂,對應(yīng)文檔描述也不清晰,所以后面我還會結(jié)合微軟的開源 nni 工具來實(shí)現(xiàn)模型剪枝功能。

更多剪枝方法實(shí)踐,可以參考這個 github 倉庫:Model-Compression。

參考資料

  1. How to Prune Neural Networks with PyTorch

  2. PRUNING TUTORIAL

  3. PyTorch Pruning文章來源地址http://www.zghlxwxcb.cn/news/detail-655965.html

到了這里,關(guān)于實(shí)踐教程|基于 pytorch 實(shí)現(xiàn)模型剪枝的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【Pytorch深度學(xué)習(xí)開發(fā)實(shí)踐學(xué)習(xí)】B站劉二大人課程筆記整理lecture04反向傳播

    【Pytorch深度學(xué)習(xí)開發(fā)實(shí)踐學(xué)習(xí)】B站劉二大人課程筆記整理lecture04反向傳播

    lecture04反向傳播 課程網(wǎng)址 Pytorch深度學(xué)習(xí)實(shí)踐 部分課件內(nèi)容: pytorch的機(jī)制是動態(tài)計(jì)算圖, tensor里面既有data也有g(shù)radient

    2024年02月22日
    瀏覽(18)
  • 【深度學(xué)習(xí)】【pytorch】對卷積層置零卷積核進(jìn)行真實(shí)剪枝

    最近需要對深度學(xué)習(xí)模型進(jìn)行部署,因此需要對模型進(jìn)行壓縮,博主取舍了很多大佬的博文并親測有效,分享筆記邀大家共同學(xué)習(xí)討論 深度學(xué)習(xí)剪枝(Pruning)是一種用于減少神經(jīng)網(wǎng)絡(luò)模型大小、減少計(jì)算量和提高推理效率的技術(shù),通過去除神經(jīng)網(wǎng)絡(luò)中的冗余連接(權(quán)重)或節(jié)點(diǎn)(神經(jīng)元

    2024年02月05日
    瀏覽(13)
  • 大模型學(xué)習(xí)與實(shí)踐筆記(七)

    大模型學(xué)習(xí)與實(shí)踐筆記(七)

    1.平臺: Ubuntu + Anaconda + CUDA/CUDNN + 8GB nvidia顯卡 2.安裝 3.模型下載 4.數(shù)據(jù)集下載 數(shù)據(jù)集鏈接:https://huggingface.co/datasets/timdettmers/openassistant-guanaco/tree/main 5.拷貝模型配置文件到當(dāng)前目錄 本次實(shí)踐拷貝文件為: xtuner copy-cfg internlm_chat_7b_qlora_oasst1_e3 . 數(shù)據(jù)集與配置文件準(zhǔn)備完成后的

    2024年01月17日
    瀏覽(13)
  • 大模型學(xué)習(xí)與實(shí)踐筆記(九)

    大模型學(xué)習(xí)與實(shí)踐筆記(九)

    使用 LMDeploy 以本地對話方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事 2.api 方式部署 運(yùn)行 結(jié)果: 顯存占用: 在使用命令,對lmdeploy 進(jìn)行源碼安裝是時(shí),報(bào)錯 1.源碼安裝語句 2.報(bào)錯語句: 3.解決方法 (1)在https://github.com/Dao-AILab/flash-attention/releases/ 下載 對應(yīng)版本 的安裝包

    2024年01月20日
    瀏覽(17)
  • 大模型學(xué)習(xí)與實(shí)踐筆記(八)

    大模型學(xué)習(xí)與實(shí)踐筆記(八)

    1.量化 2.持續(xù)批處理 3.Blocked k/v cache 4.有狀態(tài)的推理 5.高性能cuda kernel

    2024年01月19日
    瀏覽(12)
  • 大模型學(xué)習(xí)與實(shí)踐筆記(五)

    大模型學(xué)習(xí)與實(shí)踐筆記(五)

    1. huggingface 鏡像下載 sentence-transformers 開源詞向量模型 2.下載 NLTK 相關(guān)資源 NLTK(自然語言工具包)是一個用于處理和分析人類語言數(shù)據(jù)的Python庫。它提供了豐富的工具和資源,用于文本處理、語言學(xué)特征提取、語言模型訓(xùn)練、語義分析、情感分析等自然語言處理(NLP)任務(wù)。

    2024年01月23日
    瀏覽(13)
  • 《Python深度學(xué)習(xí)基于Pytorch》學(xué)習(xí)筆記

    《Python深度學(xué)習(xí)基于Pytorch》學(xué)習(xí)筆記

    有需要這本書的pdf資源的可以聯(lián)系我~ 這本書不是偏向于非常詳細(xì)的教你很多函數(shù)怎么用,更多的是交個基本使用,主要是后面的深度學(xué)習(xí)相關(guān)的內(nèi)容。 1.Numpy提供兩種基本的對象:ndarray(n維數(shù)組對象)(用于儲存多維數(shù)據(jù))和ufunc(通用函數(shù)對象,用于處理不同的數(shù)據(jù))。

    2024年02月09日
    瀏覽(20)
  • PyTorch學(xué)習(xí)筆記(十三)——現(xiàn)有網(wǎng)絡(luò)模型的使用及修改

    PyTorch學(xué)習(xí)筆記(十三)——現(xiàn)有網(wǎng)絡(luò)模型的使用及修改

    ?以分類模型的VGG為例 ? 設(shè)置為 False 的情況,相當(dāng)于網(wǎng)絡(luò)模型中的參數(shù)都是初始化的、默認(rèn)的 設(shè)置為 True 時(shí),網(wǎng)絡(luò)模型中的參數(shù)在數(shù)據(jù)集上是訓(xùn)練好的,能達(dá)到比較好的效果 CIFAR10 把數(shù)據(jù)分成了10類,而 vgg16 模型把數(shù)據(jù)分成了 1000 類,如何應(yīng)用這個網(wǎng)絡(luò)模型呢? 方法1:把最

    2024年02月12日
    瀏覽(22)
  • PyTorch深度學(xué)習(xí)快速入門教程【小土堆】 學(xué)習(xí)筆記

    PyTorch深度學(xué)習(xí)快速入門教程【小土堆】 學(xué)習(xí)筆記

    PyTorch深度學(xué)習(xí)快速入門教程(絕對通俗易懂?。拘⊥炼选?anaconda 卸載環(huán)境 :conda uninstall -n yyy --all anaconda 安裝路徑:D:anaconda3 創(chuàng)建環(huán)境: conda create -n pytorch python=3.9 切換環(huán)境 : conda activate pytorch 查看目前已經(jīng)安裝的工具包:pip list Q 安裝pytorch? 進(jìn)入pytorch首頁 下拉,http

    2024年02月07日
    瀏覽(22)
  • 【深度學(xué)習(xí)、工程實(shí)踐】關(guān)系抽取Casrel實(shí)現(xiàn)(Pytorch版)

    【深度學(xué)習(xí)、工程實(shí)踐】關(guān)系抽取Casrel實(shí)現(xiàn)(Pytorch版)

    ? ? ? ? 關(guān)系抽取是自然語言處理中的一個基本任務(wù)。關(guān)系抽取通常用三元組(subject, relation, object)表示。但在關(guān)系抽取中往往會面臨的關(guān)系三元組重疊問題?!禔 Novel Cascade Binary Tagging Framework for Relational Triple Extraction》提出的CASREL模型可以有效的處理重疊關(guān)系三元組問題。 論

    2023年04月17日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包