一、引言
乳腺癌是全球最常見的女性惡性腫瘤之一,也影響著男性的健康。據(jù)統(tǒng)計(jì),每年有數(shù)百萬人被診斷出患有乳腺癌[1]。乳腺癌的早期檢測(cè)和準(zhǔn)確診斷對(duì)于治療和預(yù)后至關(guān)重要。然而,乳腺癌的早期診斷面臨許多挑戰(zhàn),如圖像解讀的主觀性和復(fù)雜性,以及差異化的病理特征[2]。因此,我們迫切需要有效的方法來幫助醫(yī)生準(zhǔn)確地檢測(cè)和診斷乳腺癌。
乳腺癌CT影像數(shù)據(jù)是一種重要的非侵入性診斷工具,可以提供關(guān)于乳腺組織的詳細(xì)信息。它不僅包含了乳腺腫瘤的位置和大小,還可以顯示周圍組織的情況。然而,人工解讀乳腺癌CT影像數(shù)據(jù)存在主觀偏差和時(shí)間消耗較大的問題。因此,利用計(jì)算機(jī)輔助分析乳腺癌CT影像數(shù)據(jù)可以提高準(zhǔn)確性和效率[3]。
為了更好地分析乳腺癌CT影像數(shù)據(jù),我們引入R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò)。R語(yǔ)言作為一種功能強(qiáng)大的統(tǒng)計(jì)計(jì)算工具,具有豐富的圖像處理和數(shù)據(jù)分析包。而ANN神經(jīng)網(wǎng)絡(luò)則是一種能夠模擬人腦神經(jīng)系統(tǒng)的計(jì)算模型,它可以學(xué)習(xí)和識(shí)別復(fù)雜的非線性關(guān)系。通過結(jié)合R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò),我們可以構(gòu)建出準(zhǔn)確的分類診斷模型,以輔助醫(yī)生進(jìn)行乳腺癌的早期檢測(cè)和診斷[4]。
本文旨在探討如何利用R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò)來分析乳腺癌CT影像數(shù)據(jù),以提高乳腺癌的早期檢測(cè)和準(zhǔn)確診斷。通過對(duì)乳腺癌重要性和挑戰(zhàn)的介紹,以及乳腺癌CT影像數(shù)據(jù)分析的需求,引出了使用R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò)的目的。這將有助于改善乳腺癌患者的治療結(jié)果和生存率。
二、乳腺癌CT影像數(shù)據(jù)處理
2.1 乳腺癌CT影像數(shù)據(jù)的獲取和預(yù)處理
為了進(jìn)行乳腺癌CT影像數(shù)據(jù)的分析,首先需要獲取相關(guān)的影像數(shù)據(jù)。這些數(shù)據(jù)可以通過醫(yī)院或研究機(jī)構(gòu)的影像設(shè)備獲取,如計(jì)算機(jī)斷層掃描(CT)設(shè)備。獲取到的數(shù)據(jù)通常以數(shù)字化的形式存儲(chǔ),并包含了乳腺組織的切片圖像。
在進(jìn)行分析之前,還需要進(jìn)行一些預(yù)處理步驟來確保數(shù)據(jù)的質(zhì)量和一致性。常見的預(yù)處理步驟包括去噪、增強(qiáng)和標(biāo)準(zhǔn)化。去噪可以通過應(yīng)用濾波器或去除低頻噪聲來減少圖像中的干擾信息。增強(qiáng)可以通過調(diào)整圖像的對(duì)比度和亮度來提高圖像的清晰度和可視化效果。標(biāo)準(zhǔn)化可以使不同圖像之間的灰度值具有一致的尺度,以便更好地比較和分析。
2.2 R語(yǔ)言處理乳腺癌CT影像數(shù)據(jù)
R語(yǔ)言是一種廣泛應(yīng)用于統(tǒng)計(jì)計(jì)算和數(shù)據(jù)分析的編程語(yǔ)言,它具有豐富的圖像處理和數(shù)據(jù)分析包,適用于乳腺癌CT影像數(shù)據(jù)的處理和分析。以下是R語(yǔ)言在乳腺癌CT影像數(shù)據(jù)處理中常用的技術(shù)和工具:
-
圖像讀取和顯示:R語(yǔ)言提供了多種用于讀取和顯示圖像的函數(shù),如'jpeg'、'png'和'EBImage'包。這些函數(shù)可以幫助用戶讀取乳腺癌CT影像數(shù)據(jù),并將其顯示在屏幕上進(jìn)行可視化。 -
圖像分割:乳腺癌CT影像數(shù)據(jù)通常需要進(jìn)行分割,以提取出感興趣的區(qū)域,如腫瘤和周圍組織。R語(yǔ)言中的'ImageJ'包和'EBImage'包提供了一系列函數(shù)用于圖像分割,例如閾值分割和邊緣檢測(cè)等方法。 -
特征提取:為了進(jìn)一步分析乳腺癌CT影像數(shù)據(jù),可以使用R語(yǔ)言中的各種特征提取算法,如紋理特征、形狀特征和密度特征等。這些特征可以提供有關(guān)乳腺腫瘤的定量信息,從而幫助醫(yī)生進(jìn)行分類和診斷。
2.3 ANN神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介及其的優(yōu)勢(shì)
ANN(Artificial Neural Network,人工神經(jīng)網(wǎng)絡(luò))是一種受到生物神經(jīng)系統(tǒng)啟發(fā)的計(jì)算模型,具有學(xué)習(xí)和模式識(shí)別的能力。在乳腺癌分類診斷中,ANN可以通過學(xué)習(xí)大量的乳腺癌CT影像數(shù)據(jù)來建立一個(gè)準(zhǔn)確的分類模型。
ANN具有以下優(yōu)勢(shì):
-
非線性關(guān)系建模能力:乳腺癌CT影像數(shù)據(jù)包含復(fù)雜的非線性關(guān)系,ANN可以通過多層神經(jīng)元之間的連接和激活函數(shù)來模擬這種非線性關(guān)系,從而更好地捕捉圖像數(shù)據(jù)中的特征。 -
自適應(yīng)學(xué)習(xí)能力:ANN可以根據(jù)輸入數(shù)據(jù)的特征自動(dòng)調(diào)整網(wǎng)絡(luò)的權(quán)重和偏差,從而提高分類模型的準(zhǔn)確性。這使得ANN對(duì)于不同類型的乳腺癌CT影像數(shù)據(jù)具有較強(qiáng)的魯棒性和泛化能力。 -
并行計(jì)算能力:ANN的計(jì)算過程可以并行進(jìn)行,這意味著它可以處理大規(guī)模的乳腺癌CT影像數(shù)據(jù)集,并在較短的時(shí)間內(nèi)生成分類結(jié)果。
綜上所述,R語(yǔ)言在乳腺癌CT影像數(shù)據(jù)處理中具有豐富的功能和工具,而ANN神經(jīng)網(wǎng)絡(luò)則可以通過學(xué)習(xí)乳腺癌CT影像數(shù)據(jù)中的非線性關(guān)系來提高分類診斷的準(zhǔn)確性。它們的結(jié)合將有助于改善乳腺癌的早期檢測(cè)和診斷。
三、R語(yǔ)言與ANN的結(jié)合
3.1 R和ANN的集成方法和實(shí)現(xiàn)步驟
將R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò)集成起來進(jìn)行乳腺癌分類診斷可以按照以下步驟進(jìn)行:
-
數(shù)據(jù)準(zhǔn)備:首先,使用R語(yǔ)言讀取和預(yù)處理乳腺癌CT影像數(shù)據(jù)。這包括讀取圖像文件、進(jìn)行去噪、增強(qiáng)和標(biāo)準(zhǔn)化等預(yù)處理步驟。 -
特征提?。菏褂肦語(yǔ)言中的特征提取算法從預(yù)處理后的乳腺癌CT影像數(shù)據(jù)中提取相關(guān)特征。常見的特征包括紋理特征、形狀特征和密度特征等。 -
特征選擇:使用R語(yǔ)言中的特征選擇算法選擇最具有代表性和區(qū)分能力的特征子集。這可以幫助提高模型的性能和泛化能力,并減少計(jì)算復(fù)雜度。 -
數(shù)據(jù)劃分:將乳腺癌CT影像數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。訓(xùn)練集用于訓(xùn)練ANN神經(jīng)網(wǎng)絡(luò)模型,驗(yàn)證集用于調(diào)整模型的超參數(shù)和防止過擬合,測(cè)試集用于評(píng)估模型的性能。 -
ANN模型構(gòu)建:使用R語(yǔ)言中的ANN包(如‘neuralnet’或‘nnet’)構(gòu)建ANN神經(jīng)網(wǎng)絡(luò)模型。根據(jù)乳腺癌CT影像數(shù)據(jù)的特點(diǎn)和任務(wù)需求,選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)和優(yōu)化算法。 -
模型訓(xùn)練:使用訓(xùn)練集對(duì)ANN神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。通過反向傳播算法和梯度下降優(yōu)化算法,更新網(wǎng)絡(luò)的權(quán)重和偏置,以最小化預(yù)測(cè)值與實(shí)際標(biāo)簽之間的誤差。 -
模型驗(yàn)證:使用驗(yàn)證集評(píng)估訓(xùn)練得到的ANN模型的性能??梢杂?jì)算準(zhǔn)確度、精確度、召回率、F1分?jǐn)?shù)等指標(biāo)來評(píng)估分類性能。 -
超參數(shù)調(diào)優(yōu):根據(jù)驗(yàn)證集的性能結(jié)果,調(diào)整ANN模型的超參數(shù),如學(xué)習(xí)率、迭代次數(shù)、隱藏層神經(jīng)元的數(shù)量等,以獲取更好的性能。 -
模型測(cè)試:最后,使用測(cè)試集評(píng)估經(jīng)過訓(xùn)練和驗(yàn)證的ANN神經(jīng)網(wǎng)絡(luò)模型的泛化能力和準(zhǔn)確性。
3.2 特征提取與選擇
在乳腺癌CT影像數(shù)據(jù)中,特征工程的目標(biāo)是從圖像數(shù)據(jù)中提取出最具有代表性和區(qū)分能力的特征。以下是R語(yǔ)言中常用的特征工程方法:
-
紋理特征提?。菏褂肦語(yǔ)言中的紋理特征提取算法(如‘glcm’包)計(jì)算乳腺癌CT影像數(shù)據(jù)的紋理特征,如灰度共生矩陣(GLCM)特征、灰度差異矩陣(GDM)特征等。這些特征可以描述圖像的紋理結(jié)構(gòu),有助于乳腺癌的分類和診斷。 -
形狀特征提取:使用R語(yǔ)言中的形狀特征提取算法(如‘shape’包)計(jì)算乳腺癌CT影像數(shù)據(jù)的形狀特征,如面積、周長(zhǎng)、橢圓度等。這些特征可以描述腫瘤的形狀特征,對(duì)乳腺癌的區(qū)分具有一定的意義。 -
密度特征提取:使用R語(yǔ)言中的密度特征提取算法(如‘EBImage’包)計(jì)算乳腺癌CT影像數(shù)據(jù)的密度特征,如平均密度、標(biāo)準(zhǔn)差等。這些特征可以反映乳腺腫瘤的密度變化,有助于乳腺癌的分類和分級(jí)。
在特征選擇方面,R語(yǔ)言提供了多種特征選擇算法和工具,如基于統(tǒng)計(jì)方法的過濾式特征選擇、基于機(jī)器學(xué)習(xí)模型的包裹式特征選擇和嵌入式特征選擇等。可以根據(jù)具體情況選擇合適的特征選擇方法,從提取出的特征中選擇最具有代表性和區(qū)分能力的特征子集。
3.3 模型訓(xùn)練與驗(yàn)證
在乳腺癌分類診斷中,ANN神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和驗(yàn)證通常遵循以下策略:
-
數(shù)據(jù)劃分:將乳腺癌CT影像數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。一般常用的劃分比例是70%的訓(xùn)練集、15%的驗(yàn)證集和15%的測(cè)試集。 -
初始模型訓(xùn)練:使用訓(xùn)練集對(duì)初始的ANN神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。通過迭代的方式,利用反向傳播算法和梯度下降優(yōu)化算法來更新網(wǎng)絡(luò)權(quán)重和偏置。 -
驗(yàn)證集性能評(píng)估:使用驗(yàn)證集評(píng)估訓(xùn)練得到的ANN模型的性能??梢杂?jì)算準(zhǔn)確度、精確度、召回率、F1分?jǐn)?shù)等指標(biāo)來評(píng)估分類性能。 -
超參數(shù)調(diào)優(yōu):根據(jù)驗(yàn)證集的性能結(jié)果,調(diào)整ANN模型的超參數(shù),如學(xué)習(xí)率、迭代次數(shù)、隱藏層神經(jīng)元的數(shù)量等??梢允褂镁W(wǎng)格搜索、交叉驗(yàn)證等方法來尋找最佳超參數(shù)組合。 -
模型性能評(píng)估:使用測(cè)試集評(píng)估經(jīng)過訓(xùn)練和驗(yàn)證的ANN神經(jīng)網(wǎng)絡(luò)模型的泛化能力和準(zhǔn)確性。計(jì)算各項(xiàng)性能指標(biāo),并與其他模型進(jìn)行比較。 -
模型優(yōu)化和改進(jìn):根據(jù)測(cè)試集的結(jié)果,對(duì)ANN模型進(jìn)行優(yōu)化和改進(jìn),如調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)、加入正則化技術(shù)、應(yīng)用集成學(xué)習(xí)方法等,以提高模型的分類性能。
通過不斷優(yōu)化和改進(jìn),最終得到一個(gè)在乳腺癌分類診斷中具有高準(zhǔn)確度和泛化能力的ANN神經(jīng)網(wǎng)絡(luò)模型。
四、性能評(píng)估和結(jié)果分析
4.1 評(píng)估指標(biāo)
對(duì)于乳腺癌CT影像數(shù)據(jù)分類診斷模型的性能評(píng)估,常用的評(píng)估指標(biāo)包括:
-
準(zhǔn)確度(Accuracy):分類正確的樣本數(shù)量與總樣本數(shù)量之比。 -
精確度(Precision):真正例(TP)的數(shù)量與所有被分類為正例的樣本數(shù)量之比,表示分類器將負(fù)例錯(cuò)誤分類為正例的程度。 -
召回率(Recall):真正例(TP)的數(shù)量與所有實(shí)際正例樣本數(shù)量之比,衡量分類器正確識(shí)別正例的能力。 -
F1分?jǐn)?shù)(F1 Score):精確度和召回率的調(diào)和平均值,綜合考慮了分類器的準(zhǔn)確性和全面性。 -
ROC曲線和AUC值:通過改變分類器的閾值,繪制真正例率(TPR)和假正例率(FPR)之間的關(guān)系曲線,AUC表示ROC曲線下的面積,反映了分類器的性能。 -
混淆矩陣(Confusion Matrix):用于描述分類器分類結(jié)果的四種情況,包括真正例(TP)、真負(fù)例(TN)、假正例(FP)和假負(fù)例(FN)的數(shù)量。
以上評(píng)估指標(biāo)可以綜合考慮模型的分類準(zhǔn)確度、偏差和泛化能力,在乳腺癌CT影像數(shù)據(jù)的分類診斷任務(wù)中對(duì)模型進(jìn)行全面評(píng)估。
4.2 實(shí)例展示
4.2.1 模型構(gòu)建
-
「數(shù)據(jù)簡(jiǎn)介」
DDSM(Digital Database for Screening Mammography)是一個(gè)針對(duì)X射線攝影的數(shù)字圖像數(shù)據(jù)庫(kù)。它是由美國(guó)醫(yī)學(xué)物理中心(BUMC)、美國(guó)馬里蘭大學(xué) (UMD)和羅德島州女性癌癥控制計(jì)劃(Rhode Island Women’s Cancer Control Program)合作創(chuàng)建的。數(shù)據(jù)集收集了多個(gè)醫(yī)療機(jī)構(gòu)拍攝的X射線攝影圖像,包含多種類型的異常結(jié)果,如結(jié)節(jié)、鈣化等,并以DICOM格式存儲(chǔ)。為了方便訓(xùn)練,提前轉(zhuǎn)換成了jpeg格式
文件夾中一共有四種類別無需回訪的良性(也就是絕對(duì)的良性)、良性、惡性、正常。
每個(gè)具體的樣例里都有四張照片,分別為:LCC、LMLO、RCC 和 RMLO 是用于乳腺影像學(xué)的常見術(shù)語(yǔ),表示乳腺正位(Cranio-Caudal)和側(cè)位(Medio-Lateral)的不同位置。這些術(shù)語(yǔ)通常用于描述乳腺攝影中的特定拍攝視圖或角度。
「下面是對(duì)這些術(shù)語(yǔ)的解釋:」
-
LCC(Left Cranio-Caudal):指的是左乳腺的正位拍攝圖像。在這種視圖中,乳腺組織從頂部到底部被壓縮顯示。 -
LMLO(Left Medio-Lateral Oblique):指的是左乳腺的側(cè)位斜視圖。在這種視圖中,乳腺組織呈側(cè)面顯示,從內(nèi)向外,上向下呈斜視。 -
RCC(Right Cranio-Caudal):指的是右乳腺的正位拍攝圖像。與 LCC 類似,該視圖中的右乳腺組織從頂部到底部被壓縮顯示。 -
RMLO(Right Medio-Lateral Oblique):指的是右乳腺的側(cè)位斜視圖。與 LMLO 類似,該視圖中的右乳腺組織從內(nèi)向外,上向下呈斜視。
這些不同的拍攝視圖和角度能夠提供醫(yī)生更全面的乳腺影像信息,有助于早期發(fā)現(xiàn)和診斷乳腺相關(guān)問題。
-
「導(dǎo)入癌癥組」
#install.packages("keras")
library(keras)
library(jpeg)
#?install.packages("reticulate")??#?如果還沒有安裝reticulate包
#?reticulate::py_install("Pillow")
#?install.packages("BiocManager")
#?BiocManager::install("EBImage")
library(EBImage)
#?導(dǎo)入癌癥組數(shù)據(jù)
cancer_images?<-?list()
cancer_labels?<-?list()
cancer_dir?<-?"E:/影像數(shù)據(jù)/DDSM_jpeg/cancers"
cancer_subdirs?<-?list.dirs(cancer_dir,?recursive?=?FALSE)
for?(subdir?in?cancer_subdirs)?{
??case_dirs?<-?list.dirs(subdir,?recursive?=?FALSE)
??for?(case_dir?in?case_dirs)?{
????image_files?<-?list.files(case_dir,?full.names?=?TRUE,?recursive?=?FALSE)
????for(file?in?image_files){
??????img?<-?jpeg::readJPEG(file)
??????img?<-?resize(img,w?=?28,h?=?28)
??????img?<-?as.array(img)?/?255
??????cancer_images?<-?c(cancer_images,?list(as.matrix(img)))
??????cancer_labels?<-?c(cancer_labels,?1)
????}
??}
}
標(biāo)簽設(shè)置為1,代表癌癥組。
-
「導(dǎo)入正常組」
#?導(dǎo)入正常組數(shù)據(jù)
normal_images?<-?list()
normal_labels?<-?list()
normal_dir?<-?"E:/影像數(shù)據(jù)/DDSM_jpeg/normals"
normal_subdirs?<-?list.dirs(normal_dir,?recursive?=?FALSE)
for?(subdir?in?normal_subdirs)?{
??case_dirs?<-?list.dirs(subdir,?recursive?=?FALSE)
??for?(case_dir?in?case_dirs)?{
????image_files?<-?list.files(case_dir,?full.names?=?TRUE,?recursive?=?FALSE)
????
????for(file?in?image_files)?{
??????img?<-?jpeg::readJPEG(file)
??????img?<-?resize(img,w?=?28,h?=?28)
??????img?<-?as.array(img)?/?255?
??????normal_images?<-?c(normal_images,?list(as.matrix(img)))
??????normal_labels?<-?c(normal_labels,?0)
????}
??}
}
標(biāo)簽設(shè)置為0,代表正常組。
-
「導(dǎo)入良性組無需回訪」
benign_without_callbacks_images?<-?list()
benign_without_callbacks_labels?<-?list()
benign_without_callbacks_dir?<-?"E:/影像數(shù)據(jù)/DDSM_jpeg/benign_without_callbacks"
benign_without_callbacks_subdirs?<-?list.dirs(benign_without_callbacks_dir,?recursive?=?FALSE)
for?(subdir?in?benign_without_callbacks_subdirs)?{
??case_dirs?<-?list.dirs(subdir,?recursive?=?FALSE)
??for?(case_dir?in?case_dirs)?{
????image_files?<-?list.files(case_dir,?full.names?=?TRUE,?recursive?=?FALSE)
????for(file?in?image_files)?{
??????img?<-?jpeg::readJPEG(file)
??????img?<-?resize(img,w?=?28,h?=?28)
??????img?<-?as.array(img)?/?255
??????benign_without_callbacks_images?<-?c(benign_without_callbacks_images,?list(as.matrix(img)))
??????benign_without_callbacks_labels?<-?c(benign_without_callbacks_labels,?2)
????}
??}
}
標(biāo)簽設(shè)置為2,表示良性組無需回訪。
-
「導(dǎo)入良性組」
benign_images?<-?list()
benign_labels?<-?list()
benign_dir?<-?"E:/影像數(shù)據(jù)/DDSM_jpeg/benigns"
benign_subdirs?<-?list.dirs(benign_dir,?recursive?=?FALSE)
for?(subdir?in?benign_subdirs)?{
??case_dirs?<-?list.dirs(subdir,?recursive?=?FALSE)
??for?(case_dir?in?case_dirs)?{
????image_files?<-?list.files(case_dir,?full.names?=?TRUE,?recursive?=?FALSE)
????for(file?in?image_files)?{
??????img?<-?jpeg::readJPEG(file)
??????img?<-?resize(img,w?=?28,h?=?28)
??????img?<-?as.array(img)?/?255??
??????benign_images?<-?c(benign_images,?list(as.matrix(img)))
??????benign_labels?<-?c(benign_labels,?3)
????}
??}
}
標(biāo)簽設(shè)置為3,表示良性組無需回訪。
-
「數(shù)據(jù)合并和劃分訓(xùn)練組和測(cè)試組」
#?將數(shù)據(jù)合并為一個(gè)數(shù)據(jù)集
all_images?<-?c(cancer_images,?normal_images,?benign_without_callbacks_images,?benign_images)
all_labels?<-?c(cancer_labels,?normal_labels,?benign_without_callbacks_labels,?benign_labels)
#?打亂數(shù)據(jù)集
shuffle_index?<-?sample(length(all_images))
all_images?<-?all_images[shuffle_index]
all_labels?<-?all_labels[shuffle_index]
#?將數(shù)據(jù)劃分為訓(xùn)練集和測(cè)試集(可以根據(jù)需求進(jìn)行調(diào)整)
train_ratio?<-?0.8??#?訓(xùn)練集比例
train_size?<-?ceiling(length(all_images)?*?train_ratio)
train_images?<-?all_images[1:train_size]
train_labels?<-?all_labels[1:train_size]
test_images?<-?all_images[(train_size?+?1):length(all_images)]
test_labels?<-?all_labels[(train_size?+?1):length(all_images)]
-
「轉(zhuǎn)化數(shù)據(jù)集」
#?轉(zhuǎn)換為張量(Tensor)格式
#?將列表中的圖像對(duì)象數(shù)組化
x_train?<-?abind(train_images,?along?=?3)
x_train?<-?aperm(x_train,c(3,1,2))
x_train?<-?array_reshape(x_train,?c(nrow(x_train),?784))
x_test?<-?abind(test_images,?along?=?3)
x_test?<-?aperm(x_test,c(3,1,2))
x_test?<-?array_reshape(x_test,?c(nrow(x_test),?784))
y_train?<-?as.array(train_labels)
y_train?<-?unlist(y_train)
y_train?<-?to_categorical(y_train,?4)
y_test?<-?as.array(test_labels)
y_test?<-?unlist(y_test)
y_test?<-?to_categorical(y_test,?4)
-
「構(gòu)建CNN模型」
#?導(dǎo)入所需庫(kù)
library(keras)
model?<-?keras_model_sequential()?
model?%>%?
??layer_dense(units?=?256,?activation?=?'relu',?input_shape?=?c(784))?%>%?
??layer_dropout(rate?=?0.4)?%>%?
??layer_dense(units?=?128,?activation?=?'relu')?%>%
??layer_dropout(rate?=?0.3)?%>%
??layer_dense(units?=?4,?activation?=?'softmax')
summary(model)
model?%>%?compile(
??loss?=?'categorical_crossentropy',
??optimizer?=?optimizer_rmsprop(),
??metrics?=?c('accuracy')
)
history?<-?model?%>%?fit(
??x_train,?y_train,?
??epochs?=?20,?batch_size?=?100,?
??validation_split?=?0.2
)
4.2.2 模型評(píng)估
-
「損失(loss)和準(zhǔn)確率(accuracy)」
plot(history)
-
「使用測(cè)試數(shù)據(jù)評(píng)估模型性能」
model?%>%?evaluate(x_test,?y_test)
結(jié)果展示:
50/50?[==============================]?-?0s?2ms/step?-?loss:?0.6249?-?accuracy:?0.7503
50/50?[==============================]?-?0s?2ms/step?-?loss:?0.6249?-?accuracy:?0.7503
?????loss??accuracy?
0.6249360?0.7503185?
-
「繪制ROC曲線」
library(pROC)
predictions?<-?model?%>%?predict(x_test)
#?計(jì)算ROC曲線的參數(shù)
roc_obj?<-?roc(y_test,?predictions)
plot(roc_obj,?col?=?"blue",?main?=?"ROC?Curve",?xlab?=?"False?Positive?Rate",?ylab?=?"True?Positive?Rate",?print.thres?=?TRUE,?print.auc?=?TRUE,?legacy.axes?=?TRUE)
五、總結(jié)
本文研究了乳腺癌CT影像數(shù)據(jù)分析中的R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò)的應(yīng)用。研究表明,使用R語(yǔ)言進(jìn)行數(shù)據(jù)預(yù)處理和可視化可以幫助研究人員更好地理解乳腺癌CT影像數(shù)據(jù)的特征和分布。此外,通過構(gòu)建ANN神經(jīng)網(wǎng)絡(luò)模型,可以實(shí)現(xiàn)對(duì)乳腺癌CT影像數(shù)據(jù)的分類和預(yù)測(cè)。本研究的創(chuàng)新點(diǎn)在于結(jié)合了R語(yǔ)言和ANN神經(jīng)網(wǎng)絡(luò),為乳腺癌的早期檢測(cè)和診斷提供了一種新的方法。
在乳腺癌CT影像數(shù)據(jù)分析領(lǐng)域,未來的研究可以有以下發(fā)展方向和探索空間:
-
多模態(tài)數(shù)據(jù)融合:將乳腺癌CT影像數(shù)據(jù)與其他模態(tài)(如MRI、超聲等)的影像數(shù)據(jù)進(jìn)行融合,可以提供更全面和準(zhǔn)確的乳腺癌診斷和評(píng)估。 -
深度學(xué)習(xí)方法:除了傳統(tǒng)的ANN神經(jīng)網(wǎng)絡(luò),可以探索使用深度學(xué)習(xí)方法(如卷積神經(jīng)網(wǎng)絡(luò)、生成對(duì)抗網(wǎng)絡(luò)等)來處理乳腺癌CT影像數(shù)據(jù),以進(jìn)一步提高分類和預(yù)測(cè)的準(zhǔn)確性。 -
數(shù)據(jù)共享與合作:建立乳腺癌CT影像數(shù)據(jù)的共享和合作平臺(tái),促進(jìn)不同機(jī)構(gòu)和研究團(tuán)隊(duì)之間的數(shù)據(jù)交流和合作,加速乳腺癌研究的進(jìn)展。 -
結(jié)合臨床特征:將乳腺癌CT影像數(shù)據(jù)與患者的臨床特征(如年齡、病史等)進(jìn)行關(guān)聯(lián)分析,可以進(jìn)一步提高乳腺癌的診斷和預(yù)測(cè)精度。
我們這次做的是一些簡(jiǎn)單的ANN神經(jīng)網(wǎng)絡(luò)的示例,它更多的應(yīng)用于圖像分類和識(shí)別、病理學(xué)圖像分析、醫(yī)學(xué)影像分割等,如果想了解如何應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)做圖像分析,關(guān)注和私信我,我們一起學(xué)習(xí)和進(jìn)步。原創(chuàng)不易,請(qǐng)多多點(diǎn)贊、關(guān)注,您的關(guān)注是我最大的動(dòng)力!
參考文獻(xiàn):
[1] Bray F, Ferlay J, Soerjomataram I, et al. Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries[J]. CA: a cancer journal for clinicians, 2018, 68(6): 394-424.
[2] Yamaguchi R, Horii R, Maeda I, et al. Machine learning-based prediction of early recurrence of breast cancer[J]. Journal of Clinical Oncology, 2021, 39(15_suppl): 11048-11048.
[3] Zheng B, Yao Z, Hadjiiski L, et al. Computerized breast tumor detection and classification in ultrasound imaging by using multiple ROI-based texture features[J]. Medical physics, 2009, 36(2): 549-556.
[4] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527-1554.文章來源:http://www.zghlxwxcb.cn/news/detail-622136.html
*「未經(jīng)許可,不得以任何方式復(fù)制或抄襲本篇文章之部分或全部?jī)?nèi)容。版權(quán)所有,侵權(quán)必究?!?/strong>文章來源地址http://www.zghlxwxcb.cn/news/detail-622136.html
到了這里,關(guān)于乳腺癌CT影像數(shù)據(jù)的深度學(xué)習(xí):R語(yǔ)言與ANN神經(jīng)網(wǎng)絡(luò)構(gòu)建高性能分類診斷模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!