国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

從大數(shù)據(jù)到AI,華為云存儲加速企業(yè)大模型快速應用

這篇具有很好參考價值的文章主要介紹了從大數(shù)據(jù)到AI,華為云存儲加速企業(yè)大模型快速應用。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

摘要:AI與大數(shù)據(jù)算法不斷發(fā)展,在生產(chǎn)中的應用也越來越廣,而應用的場景除了對算法,軟件架構(gòu)要求越來越高外,也對底層IaaS(基礎設施即服務)提出了新的挑戰(zhàn)。

AI與大數(shù)據(jù)算法不斷發(fā)展,在生產(chǎn)中的應用也越來越廣,而應用的場景除了對算法,軟件架構(gòu)要求越來越高外,也對底層IaaS(基礎設施即服務)提出了新的挑戰(zhàn)。在7月8日的華為云開發(fā)者大會2023(Cloud)-云原生分論壇“從大數(shù)據(jù)到AI,華為云存儲加速企業(yè)大模型快速應用”上,華為云存儲服務產(chǎn)品部部長林超、叮咚買菜技術(shù)副總裁周祥軍、趣丸科技數(shù)據(jù)服務負責人黃強、華為云存儲服務產(chǎn)品部高級架構(gòu)師姚博士等嘉賓分別分享了他們的見解。

林超結(jié)合他對業(yè)界的洞察,提出了華為云對大數(shù)據(jù)與AI時代存儲服務的定義:「具備存算分離能力,提供多級加速與海量數(shù)據(jù)存儲能力的高性價比存儲底座」

進入AI時代,存儲面臨諸多挑戰(zhàn)

在訓練場景,用于訓練的數(shù)據(jù)越來越多,L2級自動駕駛訓練就需要400PB路采數(shù)據(jù),而L3級別自動駕駛訓練所需的路采數(shù)據(jù)量更為驚人。隨著訓練的數(shù)據(jù)量成倍增加,訓練時元數(shù)據(jù)預熱時間也變得越來越長,2023年車廠在進行L3級別自動駕駛訓練時每次元數(shù)據(jù)預熱的時間超過10小時,GPU長時間空載,造成算力大量浪費,而且在訓練時GPU集群需要已亞ms的速度不斷讀取數(shù)據(jù)進行訓練,這對存儲的性能也是極大的挑戰(zhàn)。另外,由于當前AI訓練是以GPU卡為核心展開的,而客戶的GPU卡往往既在線下部署也在線上部署,如何快速高效的為多元化部署的GPU提供數(shù)據(jù)存儲服務也是一件非常有挑戰(zhàn)的事。

在推理場景,隨著AI在生產(chǎn)生活中的使用越來越廣泛,AI已經(jīng)成為社會高效運轉(zhuǎn)的必要環(huán)節(jié),人們對AI處理的速度要求越來越高。當前AI大模型一般是通用大模型,缺乏行業(yè)Know How,在面對特定領域、行業(yè)的需求時往往無法給出最優(yōu)解,這給大模型在行業(yè)適配落地帶來了很大的困難。另外隨著AIGC在內(nèi)容生產(chǎn)的占比越來越高,AIGC所帶來的法律、道德、合規(guī)風險越來越大,如果不加以管理,AI必將成為不良內(nèi)容滋生的溫床。

針對上述挑戰(zhàn),華為云提出了其應對方案:

在AI訓練環(huán)節(jié),數(shù)據(jù)經(jīng)過采集、上云、預處理、標注進入模型訓練環(huán)節(jié),模型再通過數(shù)據(jù)仿真、模型評估、模型部署進入推理環(huán)節(jié)。

華為云存儲首先通過OBS對象存儲構(gòu)建統(tǒng)一數(shù)據(jù)湖來承載EB級海量的訓練數(shù)據(jù),并通過基于多種存儲規(guī)格的數(shù)據(jù)智能分級功能降低50%的存儲成本。同時OBS通過Posix語義支持預處理等環(huán)節(jié),從而減少整個訓練環(huán)節(jié)中數(shù)據(jù)在不同類型存儲中傳輸?shù)拇螖?shù),提升整體效率。

同時在模型訓練的關鍵環(huán)節(jié),GPU集群對存儲的性能有著極高的要求,華為云存儲通過SFS Turbo在OBS統(tǒng)一數(shù)據(jù)與GPU集群之間構(gòu)建高效加速層,提升AI訓練效率,通過高效加速層,原本需要上百小時的元數(shù)據(jù)預熱時間被縮短至30分鐘,有效減少了GPU空閑時間。同時在訓練中的數(shù)據(jù)讀取時延也降低到了亞毫秒級別,訓練效率相比直接對接數(shù)據(jù)湖提升3倍以上。而且SFS Turbo支持貼近GPU在線上、線下多元化部署,滿足數(shù)據(jù)就近加速的需求。

在推理階段,華為云存儲重點優(yōu)化了推理成本、推理性能、行業(yè)落地、內(nèi)容合規(guī)三個痛點

通過構(gòu)建彈性緩存,推理過程不在需要通過增加GPU在擴展內(nèi)存,從而達到將大模型裝載到內(nèi)存的目的,彈性緩存池可以按需提供高性能的緩存空間,滿足大模型的加載需求。行業(yè)落地的痛點是解決行業(yè)Know How的問題,如果使用私域數(shù)據(jù)、行業(yè)數(shù)據(jù)等對大模型進行重新訓練,那么高昂的成本和漫長的時間都是客戶無法承擔的,通過引入向量存儲,相當于在大模型的外面增加了行業(yè)Know How的外掛,無需重新訓練大模型即可滿足行業(yè)需求,而且部分問題在向量存儲中即可閉環(huán),無需推理,使得整個推理性能大幅提升100倍,而成本卻降低了10倍。另外華為DWR數(shù)據(jù)工坊提供了全面的內(nèi)容審核服務,可以確保AI推理所輸出的內(nèi)容滿足合規(guī)要求,避免了由于使用AI帶來的業(yè)務風險。

隨后,叮咚買菜技術(shù)副總裁周祥軍、趣丸科技數(shù)據(jù)服務負責人黃強、華為云存儲服務產(chǎn)品部高級架構(gòu)師姚博士也分別演講了自己的見解。

周祥軍的演講主題為“云上叮咚,用科技讓人們吃得好,讓生活更美好”,在此議題中,他分享了叮咚買菜在華為云上的大數(shù)據(jù)能力建設案例,叮咚買菜通過運籌優(yōu)化車輛線路調(diào)度,最終實現(xiàn)了品質(zhì)確定、品類確定、時間確定的“人、貨、運、倉”全鏈路數(shù)字化。

黃強分享了趣丸科技大數(shù)據(jù)+云原生加持下的用戶運營系統(tǒng)建設,趣丸科技為解決用戶運營過程中的觸點多、數(shù)據(jù)量大、不確定性高和個性化訴求強的問題,最終利用大數(shù)據(jù)與云原生技術(shù),提高了運營效率,保障了運營質(zhì)量。

姚博士則從技術(shù)架構(gòu)角度解讀了華為云存儲的一站式數(shù)據(jù)管理、存儲、加速方案。華為云通過SFS Turbo與OBS聯(lián)動提供了大容量、高可靠、低成本的數(shù)據(jù)持久化層和高效的緩存加速層。作為AI訓練加速器的SFS Turbo通過MDS Turbo、CAT Cache和全路徑軟硬件優(yōu)化的極致時延數(shù)據(jù)流傳,最終實現(xiàn)了百萬級 IOPS 的元數(shù)據(jù)加速,降低了訓練過程中訓練數(shù)據(jù)和checkpoint的讀寫時延,解決了百億小文件的預熱與數(shù)據(jù)加載加速問題。

?

點擊關注,第一時間了解華為云新鮮技術(shù)~文章來源地址http://www.zghlxwxcb.cn/news/detail-554640.html

到了這里,關于從大數(shù)據(jù)到AI,華為云存儲加速企業(yè)大模型快速應用的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 人工智能大模型加速數(shù)據(jù)庫存儲模型發(fā)展 行列混合存儲下的破局

    人工智能大模型加速數(shù)據(jù)庫存儲模型發(fā)展 行列混合存儲下的破局

    ? 專欄內(nèi)容 : postgresql內(nèi)核源碼分析 手寫數(shù)據(jù)庫toadb 并發(fā)編程 toadb開源庫 個人主頁 :我的主頁 座右銘:天行健,君子以自強不息;地勢坤,君子以厚德載物. 在數(shù)據(jù)庫的發(fā)展過程中,關系型數(shù)據(jù)庫是一個里程碑式的階段,現(xiàn)在關系型數(shù)據(jù)仍然占據(jù)著重要地位。 在關系型數(shù)

    2024年02月12日
    瀏覽(25)
  • 釋放AI創(chuàng)作潛能:從大模型訓練到高產(chǎn)力應用

    釋放AI創(chuàng)作潛能:從大模型訓練到高產(chǎn)力應用

    人民極少使用思想自由這項權(quán)利,所以他們把言論自由作為補償。 隨著科技的不斷進步,人工智能已經(jīng)成為了各行各業(yè)的必備技能。特別是在內(nèi)容創(chuàng)作領域,人工智能生成內(nèi)容(AIGC)正逐漸成為趨勢。AI可以創(chuàng)造出優(yōu)秀的、原創(chuàng)的文章和故事,這為創(chuàng)作者們提供了一種新的創(chuàng)

    2024年02月13日
    瀏覽(14)
  • 加速企業(yè)AI實施:成功策略和效率方法【第六期】

    加速企業(yè)AI實施:成功策略和效率方法【第六期】

    前些天發(fā)現(xiàn)了一個巨牛的人工智能學習網(wǎng)站,通俗易懂,風趣幽默,忍不住分享一下給大家?!緦毑厝肟凇俊?作為計算機科學領域的一個關鍵分支,機器學習在當今人工智能領域中占據(jù)著至關重要的地位,廣受矚目。機器學習通過深入分析大規(guī)模數(shù)據(jù)并總結(jié)其中的規(guī)律,為我

    2024年02月08日
    瀏覽(28)
  • AIGC 大模型紛紛部署,企業(yè)如何為 AI 數(shù)據(jù)降本增效

    AIGC 大模型紛紛部署,企業(yè)如何為 AI 數(shù)據(jù)降本增效

    編輯 | 宋慧 出品 | CSDN 云計算 AIGC 從年初開始持續(xù)爆火,國內(nèi)各種大模型紛紛涌現(xiàn),其中模型參數(shù)輕松突破千億數(shù)量級。模型中數(shù)據(jù)的形態(tài)、部署也是多種多樣的,龐大數(shù)據(jù)量背后的管理和成本不容小覷。 混合數(shù)據(jù)廠商肯睿 Cloudera 今年相繼發(fā)布了系列的數(shù)據(jù)產(chǎn)品與方案,就

    2024年02月15日
    瀏覽(23)
  • 面向大模型的存儲加速方案設計和實踐

    面向大模型的存儲加速方案設計和實踐

    這是 AI 大底座系列云智公開課的第三期內(nèi)容。前兩期我的兩位同事已經(jīng)向大家介紹了高性能網(wǎng)絡和 GPU 容器虛擬化的相關內(nèi)容。今天我們把目光聚焦在存儲方向,一起來看看面向大模型的存儲加速方案的設計和實踐。 今天將從以下三個方面來展開這次分享: 介紹大模型全流

    2024年02月14日
    瀏覽(14)
  • 從 AI 增強到大模型,企業(yè)使用數(shù)據(jù)的方式又將如何變化?

    從 AI 增強到大模型,企業(yè)使用數(shù)據(jù)的方式又將如何變化?

    AI(Artificial Intelligence,人工智能)的發(fā)展不過百年,卻已經(jīng)深刻影響著人們的思維和見解,并逐漸關聯(lián)到每個人生活和工作的方方面面。從最初的規(guī)則引擎和引入統(tǒng)計學方法,到基于知識表示和推理機制的專家系統(tǒng),再到神經(jīng)網(wǎng)絡的提出助推大數(shù)據(jù)背景下深度學習和復雜 A

    2024年02月12日
    瀏覽(20)
  • C++中map按照從大到小的順序存儲元素

    C++中map按照從大到小的順序存儲元素

    在對map的使用中,由于對業(yè)務的需要,希望map中存儲元素能夠按照鍵的大小從大到小的順序遞減存儲元素,但之前沒有對這塊進行了解,只是想當然的使用sort來對map中的元素進行排序,但是不能這樣操作的。 本文記錄如何對map中的元素按照鍵的大小從大到小進行遞減的存儲

    2024年01月17日
    瀏覽(21)
  • AI大模型低成本快速定制秘訣:RAG和向量數(shù)據(jù)庫

    AI大模型低成本快速定制秘訣:RAG和向量數(shù)據(jù)庫

    ??當今人工智能領域,最受關注的毋庸置疑是大模型。然而,高昂的訓練成本、漫長的訓練時間等都成為了制約大多數(shù)企業(yè)入局大模型的關鍵瓶頸。 ??這種背景下,向量數(shù)據(jù)庫憑借其獨特的優(yōu)勢,成為解決低成本快速定制大模型問題的關鍵所在。 ??向量數(shù)據(jù)庫是一種

    2024年02月05日
    瀏覽(23)
  • AI大模型低成本快速定制法寶:RAG和向量數(shù)據(jù)庫

    AI大模型低成本快速定制法寶:RAG和向量數(shù)據(jù)庫

    ??當今人工智能領域,最受關注的毋庸置疑是大模型。然而,高昂的訓練成本、漫長的訓練時間等都成為了制約大多數(shù)企業(yè)入局大模型的關鍵瓶頸。 ??這種背景下,向量數(shù)據(jù)庫憑借其獨特的優(yōu)勢,成為解決低成本快速定制大模型問題的關鍵所在。 ??向量數(shù)據(jù)庫是一種

    2024年02月05日
    瀏覽(20)
  • 盤古大模型加持,華為云開天aPaaS加速使能千行百業(yè)應用創(chuàng)新

    摘要: 開天aPaaS,讓優(yōu)秀快速復制,支撐開發(fā)者及伙伴上好云、用好云。 本文分享自華為云社區(qū)《盤古大模型加持,華為云開天aPaaS加速使能千行百業(yè)應用創(chuàng)新》,作者:開天aPaaS小助手。 7月7-9日,華為開發(fā)者大會(Cloud)2023在東莞隆重召開。此次大會,華為云開天aPaaS帶來

    2024年02月13日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包