1 企業(yè)級(jí)AI應(yīng)用的高昂成本
人工智能仍處于科技浪潮之巔…
隨著智能芯片、大數(shù)據(jù)和云計(jì)算的發(fā)展,深度學(xué)習(xí)技術(shù)得到進(jìn)一步升級(jí)。以ChatGPT
為首的AIGC技術(shù)大放異彩:AI繪畫、AI作曲、AI編程、AI寫作…一系列AI產(chǎn)品賦能生產(chǎn);邊緣計(jì)算、聯(lián)邦學(xué)習(xí)、多智能體等技術(shù)逐漸從學(xué)術(shù)界走向工業(yè)界,提高生產(chǎn)效率;傳統(tǒng)計(jì)算機(jī)視覺、自然語言處理進(jìn)一步深入人們的日常生活;智慧城市、智能家居、智能交通等概念不斷提出。
在可預(yù)見的未來,人工智能技術(shù)的應(yīng)用將會(huì)進(jìn)一步擴(kuò)展到更多領(lǐng)域。然而搭建企業(yè)級(jí)AI應(yīng)用需要考慮多個(gè)方面,包括
- 數(shù)據(jù)準(zhǔn)備:搜集業(yè)務(wù)數(shù)據(jù)并處理成格式化的數(shù)據(jù),同時(shí)需要保護(hù)隱私并遵守法規(guī)。
- 數(shù)據(jù)清洗:對(duì)數(shù)據(jù)進(jìn)行預(yù)處理、清洗、格式轉(zhuǎn)換等操作,確保數(shù)據(jù)的質(zhì)量和準(zhǔn)確性。
- 特征工程:對(duì)數(shù)據(jù)進(jìn)行特征提取和轉(zhuǎn)換,以便為模型提供有用的信息。
- 模型設(shè)計(jì):基于業(yè)務(wù)需求和數(shù)據(jù)分析結(jié)果選擇合適的算法,進(jìn)行模型設(shè)計(jì)和訓(xùn)練。
- 模型調(diào)優(yōu):對(duì)模型進(jìn)行調(diào)優(yōu),包括調(diào)整超參數(shù)、選擇合適的損失函數(shù)、優(yōu)化算法等,以提高模型的性能。
- 模型部署:將訓(xùn)練好的模型部署到生產(chǎn)環(huán)境中,提供可靠、高效、安全的服務(wù)。
- 模型監(jiān)控:對(duì)模型進(jìn)行監(jiān)控,確保模型的準(zhǔn)確性和穩(wěn)定性,并及時(shí)處理問題。
- 持續(xù)優(yōu)化:不斷地優(yōu)化和改進(jìn)模型,以滿足業(yè)務(wù)需求和提高效果。
- …
對(duì)于非人工智能領(lǐng)域的應(yīng)用行業(yè)而言,往往需要尋求專業(yè)團(tuán)隊(duì)或合作伙伴的支持,可以想象,這個(gè)過程耗費(fèi)人力、物力、精力。因此,如何提供一個(gè)方便快捷的完整企業(yè)級(jí)人工智能解決方案,便于下游行業(yè)快速處理柔性商業(yè)業(yè)務(wù)成為一大需求。
幸運(yùn)的是,亞馬遜提供了這樣一個(gè)平臺(tái)——Amazon SageMaker,可以降低應(yīng)用領(lǐng)域構(gòu)建AI模型的門檻,提高生產(chǎn)效率
2 什么是Amazon SageMaker?
Amazon SageMaker是一個(gè)托管的機(jī)器學(xué)習(xí)服務(wù),由亞馬遜網(wǎng)站(AWS)提供。它使數(shù)據(jù)科學(xué)家和開發(fā)人員能夠快速構(gòu)建、培訓(xùn)和部署機(jī)器學(xué)習(xí)模型。
Amazon SageMaker提供了一系列工具和功能,使用戶能夠在一個(gè)集成的環(huán)境中完成整個(gè)機(jī)器學(xué)習(xí)過程,包括數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型調(diào)優(yōu)和部署。除此之外,Amazon SageMaker還提供了多種預(yù)構(gòu)建的算法和框架,包括XGBoost、TensorFlow和PyTorch等。
Amazon SageMaker是一個(gè)全面的機(jī)器學(xué)習(xí)平臺(tái),有非常廣泛的應(yīng)用場(chǎng)景
-
企業(yè)級(jí)機(jī)器學(xué)習(xí)應(yīng)用
Amazon SageMaker提供了自動(dòng)模型調(diào)整、模型解釋和模型部署等多種功能,使用戶可以輕松構(gòu)建和部署機(jī)器學(xué)習(xí)模型。例如
一個(gè)金融機(jī)構(gòu)可以使用Amazon SageMaker來構(gòu)建和部署一個(gè)欺詐檢測(cè)模型,以識(shí)別信用卡欺詐行為。
-
云原生機(jī)器學(xué)習(xí)
Amazon SageMaker可以輕松地與其他AWS云服務(wù)集成。例如,用戶可以使用AWS Lambda和Amazon API Gateway來創(chuàng)建一個(gè)API,使其他應(yīng)用程序可以訪問Amazon SageMaker模型的預(yù)測(cè)結(jié)果。
-
高性能機(jī)器學(xué)習(xí)
Amazon SageMaker提供了高性能的計(jì)算實(shí)例和GPU實(shí)例,可以處理大規(guī)模的機(jī)器學(xué)習(xí)數(shù)據(jù)集和復(fù)雜的深度學(xué)習(xí)模型。例如
一個(gè)醫(yī)療圖像診斷應(yīng)用可以使用Amazon SageMaker中的GPU實(shí)例來訓(xùn)練和部署一個(gè)深度學(xué)習(xí)模型,以識(shí)別患者的病情。
-
機(jī)器學(xué)習(xí)模型解釋
Amazon SageMaker提供了模型解釋功能,可以幫助用戶理解機(jī)器學(xué)習(xí)模型的決策過程。例如
一個(gè)電商公司可以使用Amazon SageMaker來解釋一個(gè)推薦系統(tǒng)模型的預(yù)測(cè)結(jié)果,以便更好地理解為什么該產(chǎn)品被推薦給了某個(gè)用戶。
接下來基于Amazon SageMaker進(jìn)行兩個(gè)案例講解
3 案例一:快速構(gòu)建圖像分類應(yīng)用
3.1 卷積神經(jīng)網(wǎng)絡(luò)
基于生物神經(jīng)理論的啟發(fā),產(chǎn)生了人工神經(jīng)網(wǎng)絡(luò)(neuron networks)模型,其是由具有適應(yīng)性簡(jiǎn)單單元組成的廣泛并行互連網(wǎng)絡(luò),能夠模擬生物神經(jīng)系統(tǒng)對(duì)外界輸入進(jìn)行智能交互反應(yīng)。神經(jīng)網(wǎng)絡(luò)的基本組成單元稱為神經(jīng)元(Neuron),每個(gè)神經(jīng)元與其他若干神經(jīng)元相連組網(wǎng)。當(dāng)神經(jīng)元的輸入超過偏置閾值,則它會(huì)被激活產(chǎn)生輸出,將信號(hào)傳遞給神經(jīng)網(wǎng)絡(luò)中的其他部分。
卷積神經(jīng)網(wǎng)絡(luò)是包含了若干卷積層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。主要用于處理視覺任務(wù)。其基本原理是模板匹配與學(xué)習(xí),即根據(jù)目的圖像設(shè)計(jì)模板(卷積核),只有符合模板特征的原圖像像素區(qū)域才能獲得最大響應(yīng)。通過網(wǎng)絡(luò)學(xué)習(xí)的方式擬合卷積模板,提取圖像特征信息,避免了顯式的特征檢測(cè)與計(jì)算。因此CNN對(duì)圖像任務(wù)的泛化能力較強(qiáng)。
同時(shí),根據(jù)平移不變性和局部性假設(shè),輸入卷積層特征圖的所有像素共享同一個(gè)模板參數(shù)而與像素坐標(biāo)無關(guān),所以CNN整體可實(shí)現(xiàn)參數(shù)共享、并行學(xué)習(xí),加快學(xué)習(xí)效率。舉例而言,以一張二維圖片為輸入,則全連接網(wǎng)絡(luò)的輸入層神經(jīng)元個(gè)數(shù)將非常龐大,再考慮每個(gè)神經(jīng)元都與相鄰層所有神經(jīng)元相連,因此作為優(yōu)化目標(biāo)的連接權(quán)矩陣指數(shù)增長(zhǎng),帶來無法接受的計(jì)算復(fù)雜度。而CNN通過卷積實(shí)現(xiàn)了高維信息的聚合與壓縮,濾除了摻雜的大量冗余信息,大幅提高可學(xué)習(xí)性。
針對(duì)經(jīng)典的MNIST
手寫數(shù)字圖像分類實(shí)驗(yàn),基于Amazon SageMaker框架自主設(shè)計(jì)神經(jīng)網(wǎng)絡(luò),對(duì)比本地訓(xùn)練和Amazon SageMaker訓(xùn)練的網(wǎng)絡(luò)性能。實(shí)驗(yàn)的流程如下:
- 搭建卷積神經(jīng)網(wǎng)絡(luò);
- 加載數(shù)據(jù)集。下載MNIST手寫數(shù)字?jǐn)?shù)據(jù)集,劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集,并封裝為可迭代的數(shù)據(jù)加載器對(duì)象;
- 訓(xùn)練模型。定義損失函數(shù)和優(yōu)化方法,通過前向傳播計(jì)算損失,再基于反向傳播優(yōu)化模型參數(shù),迭代至訓(xùn)練誤差收斂后保存模型到本地;
3.2 本地測(cè)試版本
如下所示,搭建卷積神經(jīng)網(wǎng)絡(luò)
class CNN(nn.Module):
'''
* @breif: 卷積神經(jīng)網(wǎng)絡(luò)
'''
def __init__(self):
super().__init__()
self.convPoolLayer_1 = nn.Sequential(
nn.Conv2d(in_channels=1, out_channels=10, kernel_size=5),
nn.MaxPool2d(kernel_size=2),
nn.ReLU()
)
self.convPoolLayer_2 = nn.Sequential(
nn.Conv2d(in_channels=10, out_channels=20, kernel_size=5),
nn.MaxPool2d(kernel_size=2),
nn.ReLU()
)
self.fcLayer = nn.Linear(320, 10)
def forward(self, x):
batchSize = x.size(0)
x = self.convPoolLayer_1(x)
x = self.convPoolLayer_2(x)
x = x.reshape(batchSize, -1)
x = self.fcLayer(x)
return x
使用pytorch
提供的Dataset
類進(jìn)行MNIST數(shù)據(jù)集加載和預(yù)覽
from abc import abstractmethod
import numpy as np
from torchvision.datasets import mnist
from torch.utils.data import Dataset
from PIL import Image
class mnistData(Dataset):
'''
* @breif: MNIST數(shù)據(jù)集抽象接口
* @param[in]: dataPath -> 數(shù)據(jù)集存放路徑
* @param[in]: transforms -> 數(shù)據(jù)集變換
'''
def __init__(self, dataPath: str, transforms=None) -> None:
super().__init__()
self.dataPath = dataPath
self.transforms = transforms
self.data, self.label = [], []
def __len__(self) -> int:
return len(self.label)
def __getitem__(self, idx: int):
img = self.data[idx]
if self.transforms:
img = self.transforms(img)
return img, self.label[idx]
def loadData(self, train: bool) -> list:
'''
* @breif: 下載與加載數(shù)據(jù)集
* @param[in]: train -> 是否為訓(xùn)練集
* @retval: 數(shù)據(jù)與標(biāo)簽列表
'''
# 如果指定目錄下不存在數(shù)據(jù)集則下載
dataSet = mnist.MNIST(self.dataPath, train=train, download=True)
# 初始化數(shù)據(jù)與標(biāo)簽
data = [ i[0] for i in dataSet ]
label = [ i[1] for i in dataSet ]
return data, label
考慮到該實(shí)踐是多分類問題,因此最終網(wǎng)絡(luò)的輸出是十維向量并經(jīng)過softmax
轉(zhuǎn)化為概率分布,損失函數(shù)設(shè)計(jì)為交叉熵,優(yōu)化方法選擇隨機(jī)梯度下降算法。
for images, labels in trainBar:
images, labels = images.to(config.device), labels.to(config.device)
# 梯度清零
opt.zero_grad()
# 正向傳播
outputs = model(images)
# 計(jì)算損失
loss = F.cross_entropy(outputs, labels)
# 反向傳播
loss.backward()
# 模型更新
opt.step()
訓(xùn)練十分鐘后,模型預(yù)測(cè)達(dá)到了89%的準(zhǔn)確率
3.3 Amazon SageMaker版本
首先搭建卷積神經(jīng)網(wǎng)絡(luò)
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
self.conv2_drop = nn.Dropout2d()
self.fc1 = nn.Linear(320, 50)
self.fc2 = nn.Linear(50, 10)
def forward(self, x):
x = F.relu(F.max_pool2d(self.conv1(x), 2))
x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
x = x.view(-1, 320)
x = F.relu(self.fc1(x))
x = F.dropout(x, training=self.training)
x = self.fc2(x)
return F.log_softmax(x, dim=1)
接著加載數(shù)據(jù)集,可以看到,只要設(shè)置鏡像并使用upload_data
就可以自主下載數(shù)據(jù)集并把數(shù)據(jù)加載到Amazon SageMaker節(jié)點(diǎn),用于后續(xù)訓(xùn)練,無需額外定義數(shù)據(jù)加載方式,調(diào)用更便捷、快速
from torchvision.datasets import MNIST
from torchvision import transforms
MNIST.mirrors = ["https://sagemaker-sample-files.s3.amazonaws.com/datasets/image/MNIST/"]
MNIST(
"data",
download=True,
transform=transforms.Compose(
[transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
),
)
inputs = sagemaker_session.upload_data(path="data", bucket=bucket, key_prefix=prefix)
接著從Amazon SageMaker中導(dǎo)入Pytorch對(duì)象,并創(chuàng)建實(shí)例
from sagemaker.pytorch import PyTorch
estimator = PyTorch(
entry_point="mnist.py",
role=role,
py_version="py38",
framework_version="1.11.0",
instance_count=2,
instance_type="ml.c5.2xlarge",
hyperparameters={"epochs": 1, "backend": "gloo"},
)
一行代碼即可開始訓(xùn)練
estimator.fit({"training": inputs})
四分鐘左右模型完成訓(xùn)練,且測(cè)試集準(zhǔn)確率達(dá)到91%
對(duì)于手寫數(shù)字識(shí)別這種小任務(wù),Amazon SageMaker的優(yōu)勢(shì)還不夠明顯,但已經(jīng)能體會(huì)到構(gòu)建人工智能學(xué)習(xí)模型的快速、訓(xùn)練的高效,不需要從底層實(shí)現(xiàn)一些數(shù)據(jù)讀取、反向傳播等,在應(yīng)用方面可以大大提高工程效率
4 案例二:快速構(gòu)建AI繪畫應(yīng)用
4.1 擴(kuò)散模型簡(jiǎn)介
本節(jié)我們基于Amazon SageMaker和diffusion model快速構(gòu)建一個(gè)AI繪畫應(yīng)用。
先簡(jiǎn)單介紹一下擴(kuò)散模型diffusion model。這是一種生成式人工智能模型,用于生成高質(zhì)量、高保真度的圖像。它基于一種名為擴(kuò)散過程的物理現(xiàn)象,利用偏微分方程描述像素值在時(shí)間和空間上的擴(kuò)散和演化。
所謂擴(kuò)散算法diffusion
是指先將一幅畫面逐步加入噪點(diǎn),一直到整個(gè)畫面都變成白噪聲。記錄這個(gè)過程,然后逆轉(zhuǎn)過來給AI學(xué)習(xí)。AI看到的是什么?一個(gè)全是噪點(diǎn)的畫面如何一點(diǎn)點(diǎn)變清晰直到變成一幅畫,AI通過學(xué)習(xí)這個(gè)逐步去噪點(diǎn)的過程來學(xué)會(huì)作畫。
diffusion
和之前大火的GAN
模型相比,有什么優(yōu)勢(shì)呢?用OpenAI的一篇論文內(nèi)容來講,用diffusion
生成的圖像質(zhì)量明顯優(yōu)于GAN
模型;而且與GAN
不同,diffusion
不用在鞍點(diǎn)問題上糾結(jié)——涉及穩(wěn)定性問題,只需要去最小化一個(gè)標(biāo)準(zhǔn)的凸交叉熵?fù)p失即可,這樣就大大簡(jiǎn)化了模型訓(xùn)練過程中,數(shù)據(jù)處理的難度。
總結(jié)來說,目前的訓(xùn)練技術(shù)讓diffusion
直接跨越了GAN
領(lǐng)域調(diào)模型的階段,而是直接可以用來做下游任務(wù),是一個(gè)新的數(shù)學(xué)范式在圖像領(lǐng)域應(yīng)用的實(shí)例。所以在應(yīng)用方面,diffusion
已被廣泛應(yīng)用于圖像生成、圖像修復(fù)、圖像超分辨率等領(lǐng)域。通過使用文本輸入作為條件信息,它可以根據(jù)文本的描述生成高質(zhì)量的圖像,例如基于文本描述生成動(dòng)漫場(chǎng)景、自然風(fēng)景等。
4.2 模型構(gòu)建與部署
首先,在Amazon SageMaker里進(jìn)行簡(jiǎn)單配置一個(gè)Notebook,我這里的配置如下
接著創(chuàng)建一個(gè)IAM角色,用于調(diào)用調(diào)用包括 Amazon SageMaker和 S3 在內(nèi)的其他服務(wù)。例如上傳模型,部署模型等,設(shè)置保持缺省即可。
構(gòu)建和訓(xùn)練模型后,Amazon SageMaker允許我們將模型部署至終端節(jié)點(diǎn),以中獲取預(yù)測(cè)推理結(jié)果。
使用Amazon SageMaker托管服務(wù)部署模型有多種選擇,例如
- Python 開發(fā)工具包 (Boto3)
- Amazon SageMakerPython 開發(fā)工具包
- AWS CLI
- Amazon SageMaker控制臺(tái)交互部署
- …
這里我們以Python 開發(fā)工具包 (Boto3)為例構(gòu)建這個(gè)AI繪畫應(yīng)用,主要包含以下步驟:
- 安裝并檢查依賴
- 在Notebook中配置模型
import torch import datetime from diffusers import StableDiffusionPipeline # Load stable diffusion pipe = StableDiffusionPipeline.from_pretrained(SD_MODEL, torch_dtype=torch.float16)
- 編寫初始化的Amazon SageMaker代碼用于部署推理終端節(jié)點(diǎn)
import sagemaker import boto3 sagemaker_session_bucket=None ? if sagemaker_session_bucket is None and sess is not None: sagemaker_session_bucket = sess.default_bucket() ...? sess = sagemaker.Session(default_bucket=sagemaker_session_bucket)
- 構(gòu)建推理腳本
import base64 import torch from io import BytesIO from diffusers import StableDiffusionPipeline def model_fn(model_dir): # Load stable diffusion and move it to the GPU pipe = StableDiffusionPipeline.from_pretrained(model_dir, torch_dtype=torch.float16) pipe = pipe.to("cuda") return pipe def predict_fn(data, pipe): ...
- 打包上傳模型
from sagemaker.s3 import S3Uploader sd_model_uri=S3Uploader.upload(local_path=f"{SD_MODEL}.tar.gz", desired_s3_uri=f"s3://{sess.default_bucket()}/stable-diffusion")
- 使用HuggingFace將模型部署至Amazon SageMaker
predictor[SD_MODEL] = huggingface_model[SD_MODEL].deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge", endpoint_name=f"{SD_MODEL}-endpoint" )
至此就完成了模型的構(gòu)建與部署,接下來我們就可以基于推理終端節(jié)點(diǎn)生成自定義圖片
4.3 AI繪畫測(cè)試(文生圖)
輸入以下測(cè)試代碼
response = predictor[SD_MODEL].predict(data={
"prompt": [
"Eiffel tower landing on the Mars",
],
"height" : 512,
"width" : 512,
"num_images_per_prompt":1
}
)
#decode images
decoded_images = [decode_base64_image(image) for image in response["generated_images"]]
#visualize generation
for image in decoded_images:
display(image)
比如我們現(xiàn)在想生成一張《艾菲爾鐵塔登陸火星》的圖片,就可以獲得
下面是《宇航員騎馬》的生成繪圖
下面是《卡通猴子玩電腦》的生成繪圖
可以看出這個(gè)快速構(gòu)建的應(yīng)用還是很方便的!
5 結(jié)語
5.1 實(shí)踐體驗(yàn)與展望
整體體驗(yàn)Amazon SageMaker后,我發(fā)現(xiàn)它是一個(gè)非常強(qiáng)大且易于使用的機(jī)器學(xué)習(xí)平臺(tái)。首先它提供了多種不同的機(jī)器學(xué)習(xí)框架中進(jìn)行選擇,這使得我可以輕松地選擇我最熟悉或最適合我的需求的框架來構(gòu)建、訓(xùn)練和部署機(jī)器學(xué)習(xí)模型,而無需考慮環(huán)境的問題。
在案例一中可以看到,SageMaker提供了許多預(yù)構(gòu)建的機(jī)器學(xué)習(xí)算法,這些算法涵蓋了各種不同的用例和問題類型。這讓用戶可以輕松地選擇并使用適合我的需求的算法。在案例二中可以看到,SageMaker提供了多種集成部署選項(xiàng),包括托管端點(diǎn)、托管容器、AWS Lambda函數(shù)等等。這讓用戶可以輕松地將模型部署到任何需要的環(huán)境中,無論是云上還是本地。此外,SageMaker的文檔資源非常豐富和詳細(xì),這讓用戶在使用過程中遇到任何問題時(shí)都能夠快速找到幫助和支持。Amazon SageMaker還具備高級(jí)的安全性和隱私保護(hù)機(jī)制,例如數(shù)據(jù)加密、身份驗(yàn)證和訪問控制等。這些機(jī)制可以保護(hù)用戶的數(shù)據(jù)和模型,保證機(jī)器學(xué)習(xí)應(yīng)用的安全性和可信度。
總的來說,和現(xiàn)有的機(jī)器學(xué)習(xí)平臺(tái)相比,Amazon SageMaker核心在于快速構(gòu)建、訓(xùn)練和部署機(jī)器學(xué)習(xí)應(yīng)用,非常適合和各個(gè)應(yīng)用領(lǐng)域結(jié)合,快速提供搭建企業(yè)級(jí)AI模型的完整解決方案。
在體驗(yàn)過程中,也發(fā)現(xiàn)Amazon SageMaker有一些不足。最首要的是經(jīng)濟(jì)成本,使用Amazon SageMaker可能需要花費(fèi)較高的費(fèi)用,尤其是在處理大規(guī)模數(shù)據(jù)集或進(jìn)行長(zhǎng)時(shí)間的訓(xùn)練時(shí)。所以Amazon SageMaker并不適合那些較小需求的個(gè)人用戶,而比較符合企業(yè)級(jí)AI應(yīng)用搭建的定位。
其次,盡管Amazon SageMaker提供了易于使用的控制面板、API和文檔,但因?yàn)樯婕岸鄠€(gè)不同的技術(shù)和工具,其學(xué)習(xí)曲線可能較陡峭,對(duì)于沒有經(jīng)驗(yàn)的用戶來說,仍可能需要較長(zhǎng)時(shí)間的學(xué)習(xí)和試錯(cuò),積累一定的技術(shù)知識(shí)。
另外,Amazon SageMaker在自定義方面缺乏一定自由度,Amazon SageMaker的許多功能和服務(wù)都是與Amazon生態(tài)系統(tǒng)緊密關(guān)聯(lián)的。如果用戶需要的特定算法或開源框架(如圖神經(jīng)網(wǎng)絡(luò)、對(duì)抗性學(xué)習(xí)等)不在Amazon SageMaker提供的生態(tài)中,則可能需要花費(fèi)更多的時(shí)間和精力進(jìn)行自定義開發(fā)或集成。
未來,期待Amazon SageMaker繼續(xù)向自動(dòng)化機(jī)器學(xué)習(xí)功能(AutoML)功能發(fā)力,提供更加完善、更加智能、更加高效的模型設(shè)計(jì)和部署體驗(yàn),減緩用戶學(xué)習(xí)曲線。同時(shí),對(duì)于快速迭代的產(chǎn)品,也期待Amazon SageMaker能夠提供更加智能的模型管理和監(jiān)控功能,特別是模型版本控制——這是團(tuán)隊(duì)協(xié)作時(shí)必然會(huì)碰到的需求,以更好地管理和優(yōu)化模型,提高機(jī)器學(xué)習(xí)應(yīng)用的可靠性和穩(wěn)定性。
5.2 云上探索實(shí)驗(yàn)室
文章來源:http://www.zghlxwxcb.cn/news/detail-414006.html
最后,分享一下亞馬遜最新的云上實(shí)驗(yàn)室活動(dòng),通過云上探索實(shí)驗(yàn)室,開發(fā)者可以用技術(shù)實(shí)驗(yàn)、產(chǎn)品體驗(yàn)、案例應(yīng)用等方式,與其他開發(fā)者小伙伴。一同創(chuàng)造分享,互助啟發(fā),玩轉(zhuǎn)云上技術(shù),為技術(shù)實(shí)踐提供無限可能。云上探索實(shí)驗(yàn)室不僅是體驗(yàn)的空間,更是分享的平臺(tái)!歡迎各位加入~文章來源地址http://www.zghlxwxcb.cn/news/detail-414006.html
到了這里,關(guān)于Amazon SageMaker:搭建企業(yè)級(jí)AI模型的完整解決方案的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!