Microsoft Azure Machine Learning Studio是微軟強(qiáng)大的機(jī)器學(xué)習(xí)平臺(tái),在設(shè)計(jì)器中,微軟內(nèi)置了15個(gè)場(chǎng)景案例,但網(wǎng)上似乎沒(méi)有對(duì)這15個(gè)案例深度刨析的分析資料,所以我就計(jì)劃寫(xiě)一個(gè)系列來(lái)完成。
既然是深度刨析,就不再是簡(jiǎn)單的介紹操作,而是深入每一個(gè)細(xì)節(jié),寧愿過(guò)度詳細(xì)擴(kuò)展,也不簡(jiǎn)單掃過(guò)。
微軟MVP實(shí)驗(yàn)室研究員
?
這次我們刨析的案例是:使用Vowpal Wabbit模型進(jìn)行二分類(lèi) - 成人收入預(yù)測(cè)。
預(yù)備知識(shí)
▍數(shù)據(jù)集
該數(shù)據(jù)集是美國(guó)人口年收入數(shù)據(jù)集,原始數(shù)據(jù)來(lái)源于1994年美國(guó)人口普查數(shù)據(jù)庫(kù)。該數(shù)據(jù)集共32560條數(shù)據(jù),15列。但不建議您下載,在后面的步驟中,我們會(huì)討論如何從Azure Machine Learning Studio的存儲(chǔ)中獲得該數(shù)據(jù)集。
列名 |
含義 |
類(lèi)型 |
數(shù)據(jù)格式 |
Age |
年齡 |
離散屬性 |
Int64 |
workclass |
工作類(lèi)型 |
標(biāo)稱(chēng)屬性 |
Object |
fnlwgt |
序號(hào) |
連續(xù)屬性 |
Int64 |
education |
學(xué)歷 |
標(biāo)稱(chēng)屬性 |
Object |
education_num |
受教育時(shí)間 |
連續(xù)屬性 |
Int64 |
marital_status |
婚姻狀態(tài) |
標(biāo)稱(chēng)屬性 |
Object |
occupation |
職業(yè) |
標(biāo)稱(chēng)屬性 |
Object |
relationship |
關(guān)系 |
標(biāo)稱(chēng)屬性 |
Object |
race |
種族 |
標(biāo)稱(chēng)屬性 |
Object |
sex |
性別 |
二元屬性 |
Object |
capital_gain |
資本收益 |
連續(xù)屬性 |
Int64 |
capital_loss |
資本損失 |
連續(xù)屬性 |
Int64 |
hours_per_week |
每周工作小時(shí)數(shù) |
離散屬性 |
Int64 |
native_country |
原籍 |
標(biāo)稱(chēng)屬性 |
Object |
income |
收入 |
二元屬性 |
Object |
我們要預(yù)測(cè)的是新記錄的可能的收入范圍,在這個(gè)樣本集中,收入的范圍只有兩個(gè):>50K和<=50K,所以是典型的分類(lèi)( Classification)問(wèn)題。分類(lèi)模型可用來(lái)預(yù)測(cè)離散值。當(dāng)機(jī)器學(xué)習(xí)模型最終目標(biāo)(模型輸出)是布爾或一定范圍的數(shù)時(shí),例如判斷一張圖片是不是特定目標(biāo),結(jié)果是不是0或者1,或者輸出是1-10之間的整數(shù)等等,這類(lèi)需求則大多數(shù)可以通過(guò)分類(lèi)問(wèn)題來(lái)解決。典型的就是猜輸贏。當(dāng)我們對(duì)預(yù)測(cè)的結(jié)果已經(jīng)有了明確的選項(xiàng),就可以使用Classification方案。
-
下載地址:
https://archive.ics.uci.edu/ml/datasets/Adult
▍Vowpal Wabbit數(shù)據(jù)格式
Vowpal Wabbit,簡(jiǎn)稱(chēng)VW,是一個(gè)功能強(qiáng)大的開(kāi)源,在線(online)和外存學(xué)習(xí)(out-of-core machine learning)系統(tǒng),由微軟研究院的John Langford及其同事創(chuàng)建。Azure ML 通過(guò) Train VW 和 Score VW 模塊對(duì) VW 提供本機(jī)支持。可以使用它來(lái)訓(xùn)練大于 10 GB 的數(shù)據(jù)集,這通常是 Azure ML 中學(xué)習(xí)算法允許的上限。它支持許多學(xué)習(xí)算法,包括OLS回歸(OLS regression),矩陣分解(matrix factorization),單層神經(jīng)網(wǎng)絡(luò)(single layer neural network),隱狄利克雷分配模型(Latent Dirichlet Allocation),上下文賭博機(jī)(Contextual Bandits)等
VW的輸入數(shù)據(jù)每行表示一個(gè)樣本,每個(gè)樣本的格式必須如下
label | feature1:value1 feature2:value2 ...
簡(jiǎn)單的說(shuō),每一條樣本的第一個(gè)是標(biāo)簽(Label),后面是特征(Feature)。也就是每一條樣本都是有標(biāo)簽樣本(labeled)
▍Parquet 列式存儲(chǔ)格式
Parquet 是 Hadoop 生態(tài)圈中主流的列式存儲(chǔ)格式,最早是由 Twitter 和 Cloudera 合作開(kāi)發(fā),2015 年 5 月從 Apache 孵化器里畢業(yè)成為 Apache 頂級(jí)項(xiàng)目。
有這樣一句話流傳:如果說(shuō) HDFS 是大數(shù)據(jù)時(shí)代文件系統(tǒng)的事實(shí)標(biāo)準(zhǔn),Parquet 就是大數(shù)據(jù)時(shí)代存儲(chǔ)格式的事實(shí)標(biāo)準(zhǔn)。Parquet 列式存儲(chǔ)格式的壓縮比很高,所以IO操作更小。
Parquet 是與語(yǔ)言無(wú)關(guān)的,而且不與任何一種數(shù)據(jù)處理框架綁定在一起,適配多種語(yǔ)言和組件,能夠與 Parquet 適配的查詢(xún)引擎包括 Hive, Impala, Pig, Presto, Drill, Tajo, HAWQ, IBM Big SQL等,計(jì)算框架包括 MapReduce, Spark, Cascading, Crunch, Scalding, Kite 等,數(shù)據(jù)模型包括 Avro, Thrift, Protocol Buffer, POJOs 等。所以Parquet就是一個(gè)數(shù)據(jù)存儲(chǔ),提供引擎快速查詢(xún)數(shù)據(jù)的格式。
深入分析
這個(gè)案例一共九個(gè)工作節(jié)點(diǎn),我們逐個(gè)分析每一個(gè)節(jié)點(diǎn)中值得關(guān)注的細(xì)節(jié)和核心信息。
▍Adult Census Income Binary Classification dataset節(jié)點(diǎn)
這個(gè)節(jié)點(diǎn)是數(shù)據(jù)的輸入,核心有三個(gè)信息
-
Datastore name:azureml_globaldatasets是一個(gè)鏈接,點(diǎn)擊可以跳轉(zhuǎn)到數(shù)據(jù)存儲(chǔ)的位置
-
Relative path:描述在Datastore中當(dāng)前文件的位置,默認(rèn)是GenericCSV/Adult_Census_Income_Binary_Classification_dataset
點(diǎn)擊azureml_globaldatasets將跳轉(zhuǎn)到Datastore瀏覽器,您可以在這個(gè)瀏覽器下觀察到您存儲(chǔ)的數(shù)據(jù)。大致的界面如下
在左側(cè)我們最需要關(guān)注的文件是_data.parquet,該文件是Parquet 列式存儲(chǔ)格式文件。建議您下載,在后續(xù)的步驟中,我們將操作和分析這個(gè)文件。
▍Select Columns in Dataset節(jié)點(diǎn)
這個(gè)節(jié)點(diǎn)是對(duì)數(shù)據(jù)列(特征)的選擇
關(guān)鍵信息是觀察選擇的列
列名 |
含義 |
類(lèi)型 |
數(shù)據(jù)格式 |
選擇 |
Age |
年齡 |
離散屬性 |
Int64 |
是 |
workclass |
工作類(lèi)型 |
標(biāo)稱(chēng)屬性 |
Object |
|
fnlwgt |
序號(hào) |
連續(xù)屬性 |
Int64 |
是 |
education |
學(xué)歷 |
標(biāo)稱(chēng)屬性 |
Object |
是 |
education_num |
受教育時(shí)間 |
連續(xù)屬性 |
Int64 |
是 |
marital_status |
婚姻狀態(tài) |
標(biāo)稱(chēng)屬性 |
Object |
是 |
occupation |
職業(yè) |
標(biāo)稱(chēng)屬性 |
Object |
|
relationship |
關(guān)系 |
標(biāo)稱(chēng)屬性 |
Object |
是 |
race |
種族 |
標(biāo)稱(chēng)屬性 |
Object |
是 |
sex |
性別 |
二元屬性 |
Object |
是 |
capital_gain |
資本收益 |
連續(xù)屬性 |
Int64 |
是 |
capital_loss |
資本損失 |
連續(xù)屬性 |
Int64 |
是 |
hours_per_week |
每周工作小時(shí)數(shù) |
離散屬性 |
Int64 |
是 |
native_country |
原籍 |
標(biāo)稱(chēng)屬性 |
Object |
|
income |
收入 |
二元屬性 |
Object |
是 |
▍Execute Python Script節(jié)點(diǎn)
這個(gè)節(jié)點(diǎn)是將Parquet 列式存儲(chǔ)格式文件轉(zhuǎn)為VW(Vowpal Wabbit),該節(jié)點(diǎn)核心是一段Python代碼,我們來(lái)詳細(xì)理解和分析這些代碼(在這之前確保您已經(jīng)下載了_data.parquet和您已經(jīng)有了Python開(kāi)發(fā)環(huán)境)
-
azureml_main函數(shù)是Azure ML必須的入口函數(shù)。
-
其余代碼的核心就是裝載parquet,設(shè)置標(biāo)簽和特征,生成vw格式。
為了更好的幫助您理解這些代碼,我重新寫(xiě)了一段腳本,確保您可以在本地加載_data.parquet,并完整的理解整個(gè)過(guò)程。
先確保您安裝了如下組件
python -m pip install pandas
python?-m?pip?install?pyarrow
詳細(xì)代碼和解釋???????
import pandas as pd
from pandas.api.types import is_numeric_dtype
label_col = 'income'
true_label = '>50K'
# 讀取_data.parquet
dataframe=pd.read_parquet('_data.parquet')
# 輸出每一列的數(shù)據(jù)類(lèi)型
for col in dataframe:
print(col)
print('----------------------------------')
# 特征列的集合(不包含income)
feature_cols = [col for col in dataframe.columns if col != label_col]
for col in dataframe:
print(col)
print('----------------------------------')
# 所有數(shù)字列
numeric_cols = [col for col in dataframe.columns if is_numeric_dtype(col)]
for col in dataframe:
print(str(col) +'type is :' + str(dataframe[col].dtype))
print('----------------------------------')
def parse_row(row):
line = []
# vw樣本的第一個(gè)元素,定義該樣本的權(quán)重,這里因?yàn)榫蛢蓚€(gè)狀態(tài),所以定義1和-1
line.append(f"{1 if row[label_col] == true_label else -1} |")
# 添加樣本的后續(xù)值
for col in feature_cols:
if col in numeric_cols:
# 具有數(shù)字的值,格式為列名:值
line.append(f"{col}:{row[col]}")
else:
# 非數(shù)字的值,格式為列值
line.append("".join((str(row[col])).split()).replace("|", "").replace(":", ""))
print(line)
vw_line = " ".join(line)
return vw_line
vw?=?dataframe.apply(parse_row,?axis=1).to_frame()
輸出樣例
['-1 | 39 77516 Bachelors 13 Never-married Not-in-family White Male 2174 0 40']
['1 | 31 84154 Some-college 10 Married-civ-spouse Husband White Male 0 0 38']
▍Split Data節(jié)點(diǎn)
這個(gè)節(jié)點(diǎn)比較簡(jiǎn)單,按行將數(shù)據(jù)集分為50%和50%。
▍Train Vowpal Wabbit Model節(jié)點(diǎn)
這個(gè)節(jié)點(diǎn)就是將之前我們生成的vw數(shù)據(jù)集進(jìn)行訓(xùn)練建模,需要關(guān)注的信息有
-
VW arguments(VW 參數(shù)):這個(gè)是Vowpal Wabbit可執(zhí)行文件的命令行參數(shù),loss_function參數(shù)開(kāi)關(guān)可選有:classic、expectile、hinge、logistic、poisson、quantile、squared,默認(rèn)時(shí)squared。
這里選擇的是
--loss_function logistic
logistic回歸由Cox在1958年提出,它的名字雖然叫回歸,但其實(shí)這是一種二分類(lèi)算法,并且是一種線性模型。由于是線性模型,因此在預(yù)測(cè)時(shí)計(jì)算簡(jiǎn)單,在某些大規(guī)模分類(lèi)問(wèn)題,如廣告點(diǎn)擊率預(yù)估(CTR)上得到了成功的應(yīng)用。如果你的數(shù)據(jù)規(guī)模巨大,而且要求預(yù)測(cè)速度非???,則非線性核的SVM、神經(jīng)網(wǎng)絡(luò)等非線性模型已經(jīng)無(wú)法使用,此時(shí)logistic回歸是你為數(shù)不多的選擇。
-
Specify file type(指定文件類(lèi)型):VW表示Vowpal Wabbit使用的內(nèi)部格式,SVMLight是其他一些機(jī)器學(xué)習(xí)工具使用的一種格式。顯然我們應(yīng)該選擇VW。
-
Output readable model file(輸出可讀模型):選擇True,文件會(huì)保存在與輸入文件相同的存儲(chǔ)帳戶和容器中
-
Output inverted hash file(輸出反轉(zhuǎn)哈希):選擇True,文件會(huì)保存在與輸入文件相同的存儲(chǔ)帳戶和容器中
▍Score Vowpal Wabbit Model節(jié)點(diǎn)
Score Vowpal Wabbit Model和 Train Vowpal Wabbit Model差不多,差異的參數(shù)是
-
VW arguments(VW 參數(shù)):link開(kāi)關(guān)的參數(shù)可選有g(shù)lf1、identity、logistic、poisson,默認(rèn)是identity。
這里選擇的是
--link logistic
▍Execute Python Script節(jié)點(diǎn)
這個(gè)節(jié)點(diǎn)也是一段Python腳本,目的是添加一個(gè)評(píng)估列,這段腳本比較簡(jiǎn)單
關(guān)鍵代碼???????
# 閾值設(shè)定,通過(guò)和結(jié)果概率比較,得到標(biāo)簽
threshold = 0.5
# 二分的結(jié)果標(biāo)簽
binary_class_scored_col_name = "Binary Class Scored Labels"
# 二分的評(píng)估概率,這個(gè)值會(huì)被反映為標(biāo)簽
binary_class_scored_prob_col_name = "Binary Class Scored Probabilities"
output = dataframe.rename(columns={"Results": binary_class_scored_prob_col_name})
output[binary_class_scored_col_name] = output[binary_class_scored_prob_col_name].apply(
????????lambda?x:?1?if?x?>=?threshold?else?-1)
▍Edit Metadata節(jié)點(diǎn)
Edit Metadata的核心是定義列的元數(shù)據(jù),其有兩個(gè)重要作用
-
重新定義列的數(shù)據(jù)類(lèi)型,但要注意的是數(shù)據(jù)集中的值和數(shù)據(jù)類(lèi)型實(shí)際上并未更改;更改的是機(jī)器學(xué)習(xí)內(nèi)部的元數(shù)據(jù),它告訴下游組件如何使用該列。比如把一個(gè)數(shù)字列重新定義為分類(lèi)值,告訴機(jī)器學(xué)習(xí)將重新看待這個(gè)數(shù)據(jù)列。
-
指示哪一列包含類(lèi)標(biāo)簽,或者要分類(lèi)或預(yù)測(cè)的值。這個(gè)功能比較重要,可以幫助機(jī)器學(xué)習(xí)了解哪一列的的訓(xùn)練含義。
所以這次我們需要對(duì)Labels做定義,不改變數(shù)據(jù)類(lèi)型,但將訓(xùn)練含義定義為L(zhǎng)abels類(lèi)型。這個(gè)描述有點(diǎn)繞,我們應(yīng)該這么說(shuō):將一個(gè)名為L(zhǎng)abels的列定義為標(biāo)簽(Labels)類(lèi)型
這個(gè)元數(shù)據(jù)的定義,就是為了下一個(gè)Evaluate Model做準(zhǔn)備,告訴Evaluate Model知道哪一個(gè)列是需要評(píng)估的標(biāo)簽。
▍Evaluate Model節(jié)點(diǎn)
評(píng)估模型返回的指標(biāo)取決于您正在評(píng)估的模型類(lèi)型:
-
分類(lèi)模型
-
回歸模型
-
聚類(lèi)分析模型
在這個(gè)節(jié)點(diǎn)我們主要關(guān)心在訓(xùn)練完成后輸出的圖表
ROC 曲線(ROC curve):也稱(chēng)“受試者工作特征曲線”,或者感受性曲線。ROC曲線主要是用于X對(duì)Y的預(yù)測(cè)準(zhǔn)確率情況。最初ROC曲線是運(yùn)用在軍事上,現(xiàn)在更多應(yīng)用在醫(yī)學(xué)領(lǐng)域,判斷某種因素對(duì)于某種疾病的診斷是否有診斷價(jià)值。
ROC曲線圖是反映敏感性與特異性之間關(guān)系的曲線。我們一般這么看:橫坐標(biāo)X軸為 1 – 特異性,也稱(chēng)為假陽(yáng)性率/假正率(誤報(bào)率),X軸越接近零準(zhǔn)確率越高;縱坐標(biāo)Y軸稱(chēng)為敏感度,也稱(chēng)為真陽(yáng)性率/真正率(敏感度),Y軸越大代表準(zhǔn)確率越好。
根據(jù)曲線位置,把整個(gè)圖劃分成了兩部分,曲線下方部分的面積被稱(chēng)為AUC(Area Under Curve),用來(lái)表示預(yù)測(cè)準(zhǔn)確性,AUC值越高,也就是曲線下方面積越大,說(shuō)明預(yù)測(cè)準(zhǔn)確率越高。曲線越接近左上角(X越小,Y越大),預(yù)測(cè)準(zhǔn)確率越高。也就是說(shuō)AUC越接近1.0,檢測(cè)方法真實(shí)性越高,小于等于0.5時(shí),則真實(shí)性最低,無(wú)應(yīng)用價(jià)值。
所以可以看出ROC曲線非常適合描述個(gè)二分問(wèn)題,即將實(shí)例分成正類(lèi)(positive)或負(fù)類(lèi)(negative)。對(duì)一個(gè)二分問(wèn)題來(lái)說(shuō),會(huì)出現(xiàn)四種情況。如果一個(gè)實(shí)例是正類(lèi)并且也 被 預(yù)測(cè)成正類(lèi),即為真正類(lèi)(True positive),如果實(shí)例是負(fù)類(lèi)被預(yù)測(cè)成正類(lèi),稱(chēng)之為假正類(lèi)(False positive)。相應(yīng)地,如果實(shí)例是負(fù)類(lèi)被預(yù)測(cè)成負(fù)類(lèi),稱(chēng)之為真負(fù)類(lèi)(True negative),正類(lèi)被預(yù)測(cè)成負(fù)類(lèi)則為假負(fù)類(lèi)(false negative)。
精度-召回曲線(Precision-recall curve):召回率是指正確預(yù)測(cè)為正的占全部實(shí)際為正的比例,召回率是針對(duì)原樣本而言的,其含義是在實(shí)際為正的樣本中被預(yù)測(cè)為正樣本的概率。高的召回率意味著可能會(huì)有更多的誤檢,但是會(huì)盡力找到每一個(gè)應(yīng)該被找到的對(duì)象。
精確度 - 召回曲線顯示了不同閾值時(shí)精度和召回之間的權(quán)衡。曲線下的高區(qū)域代表高召回率和高精度,其中高精度與低假正率有關(guān),高召回率與低假負(fù)率有關(guān)。兩者的高分都表明分類(lèi)器正在返回準(zhǔn)確的結(jié)果(高精度),并且返回所有正樣本的大部分(高召回率)。
因?yàn)榫群驼倩氐拿?,所以我們引入了F1分?jǐn)?shù)(F1 Score),用來(lái)衡量二分類(lèi)模型精確度。它同時(shí)兼顧了分類(lèi)模型的精確率和召回率。F1分?jǐn)?shù)可以看作是模型精確率和召回率的一種調(diào)和平均,它的最大值是1,最小值是0。
提升曲線(Lift curve):與ROC曲線不同的是lift考慮分類(lèi)器的準(zhǔn)確性,也就是使用分類(lèi)器獲得的正類(lèi)數(shù)量和不使用分類(lèi)器隨機(jī)獲取正類(lèi)數(shù)量的比例。提升曲線是評(píng)估一個(gè)預(yù)測(cè)模型是否有效的一個(gè)度量;這個(gè)比值由運(yùn)用和不運(yùn)用這個(gè)模型所得來(lái)的結(jié)果計(jì)算而來(lái)。
舉例來(lái)說(shuō)就是:一個(gè)公司的客群有10000個(gè),隨著業(yè)務(wù)的變化,其中有500個(gè)客戶的資信開(kāi)始變差。如果給1000個(gè)客戶提供授信也就是說(shuō),可能會(huì)遇到50個(gè)客戶因?yàn)橘Y信問(wèn)題,將遇到風(fēng)險(xiǎn)。但是如果運(yùn)用模型對(duì)壞客戶加以預(yù)測(cè),只選擇模型分?jǐn)?shù)最高的1000個(gè)客戶授信,如果這1000個(gè)客戶表現(xiàn)出來(lái)最終安全有風(fēng)險(xiǎn)的只有8戶,說(shuō)明模型在其中是起到作用的,此時(shí)的LIFT就是大于1的。如果反過(guò)來(lái)最終證明出現(xiàn)風(fēng)險(xiǎn)的客戶超過(guò)或等于50個(gè),LIFT小于等于1,那么從效果上來(lái)看這個(gè)模型用了還不如不用。LIFT就是這樣一個(gè)指標(biāo),可以衡量使用這個(gè)模型比隨機(jī)選擇對(duì)壞樣本的預(yù)測(cè)能力提升了多少倍。
通常計(jì)算LIFT的時(shí)候會(huì)把模型的最終得分按照從低到高(風(fēng)險(xiǎn)概率從高到低)排序并等頻分為10組,計(jì)算分?jǐn)?shù)最低的一組對(duì)應(yīng)的累計(jì)壞樣本占比/累計(jì)總樣本占比就等于LIFT值了。
到這里,Binary Classification using Vowpal Wabbit Model - Adult Income Prediction案例的分析我們完成了,在這個(gè)過(guò)程中,我們?cè)敿?xì)的了解到各個(gè)節(jié)點(diǎn)的核心信息和相關(guān)的概念。從數(shù)據(jù)源、數(shù)據(jù)處理、Python腳本、元數(shù)據(jù)定義和模型質(zhì)量報(bào)告。也同時(shí)接觸到了大量的機(jī)器學(xué)習(xí)概念,本篇非常值得推薦作為Microsoft Azure Machine Learning Studio和機(jī)器學(xué)習(xí)的入門(mén)和深入讀物。
在這之后,我將繼續(xù)編寫(xiě)其他Microsoft Azure Machine Learning Studio案例。每一篇案例都可以獨(dú)立閱讀,因此有些概念會(huì)重復(fù)出現(xiàn)在每一篇中。
微軟最有價(jià)值專(zhuān)家(MVP)
微軟最有價(jià)值專(zhuān)家是微軟公司授予第三方技術(shù)專(zhuān)業(yè)人士的一個(gè)全球獎(jiǎng)項(xiàng)。29年來(lái),世界各地的技術(shù)社區(qū)領(lǐng)導(dǎo)者,因其在線上和線下的技術(shù)社區(qū)中分享專(zhuān)業(yè)知識(shí)和經(jīng)驗(yàn)而獲得此獎(jiǎng)項(xiàng)。
MVP是經(jīng)過(guò)嚴(yán)格挑選的專(zhuān)家團(tuán)隊(duì),他們代表著技術(shù)最精湛且最具智慧的人,是對(duì)社區(qū)投入極大的熱情并樂(lè)于助人的專(zhuān)家。MVP致力于通過(guò)演講、論壇問(wèn)答、創(chuàng)建網(wǎng)站、撰寫(xiě)博客、分享視頻、開(kāi)源項(xiàng)目、組織會(huì)議等方式來(lái)幫助他人,并最大程度地幫助微軟技術(shù)社區(qū)用戶使用 Microsoft 技術(shù)。
更多詳情請(qǐng)登錄官方網(wǎng)站:
https://mvp.microsoft.com/zh-cn
了解如何使用 Azure 機(jī)器學(xué)習(xí)訓(xùn)練和部署模型以及管理 ML 生命周期 (MLOps)。教程、代碼示例、API 參考和其他資源。
? ? ? ? ? ? ? ? ? ? ? ? ?文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-489755.html
點(diǎn)擊獲取相關(guān)文檔~文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-489755.html
到了這里,關(guān)于深入分析微軟Microsoft Azure 機(jī)器學(xué)習(xí)工作室案例的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!