国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

這篇具有很好參考價值的文章主要介紹了斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

語義安全這塊內(nèi)容實在是被書繞暈了,雖然模型就那么一個,但有各種各樣的數(shù)學(xué)符號交織證明,還有官方深奧的語言表述。第一次看是一知半解的,后面勢必還要再返回來精讀幾遍完善筆記。以篇幅來看,語義安全是密碼學(xué)中非常重要的一個版塊。


計算密碼與語義安全

我們還是希望能夠使用短密鑰加密長消息。圍繞香農(nóng)定理的唯一方法是放寬我們的安全要求。我們這樣做的方式不是考慮所有可能的對手,而是只考慮計算上可行的對手,即“真實世界”的對手,他們必須使用合理的時間和內(nèi)存在真實計算機上執(zhí)行計算。這將導(dǎo)致稱為語義安全的安全性定義減弱。

計算密碼的定義

計算密碼本身是一對有效的算法E和D。加密算法E將密鑰k和消息m作為輸入,并將密文c作為輸出。其實類似于香農(nóng)密碼,只是其密鑰位于某個有限密鑰空間k中,消息位于有限消息空間m中,密文位于有限密文空間c中。我們將允許加密函數(shù)E是一種概率算法,這意味著對于固定輸入k和m,E(k,m)的輸出可能是多個值之一。
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
這表示一個執(zhí)行E(k,m)并將輸出分配給程序變量c的過程。雖然可以允許解密算法具有概率性,但我們不需要這樣做,因此只討論具有確定性解密算法的密碼。然而,有時允許解密算法返回一個特殊的拒絕值(不同于所有消息)會很方便,這表明解密過程中發(fā)生了某種錯誤。在一般情況下,我們可以更正式地聲明正確性要求:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
確定性密碼與香農(nóng)密碼

一次性密碼、可變長度一次性密碼和附加一次性密碼都是確定性密碼。如果字母∑不太大,那么替換密碼也是如此。任何確定性密碼都是香農(nóng)密碼;然而,計算密碼不必是香農(nóng)密碼(如果它有概率加密算法),香農(nóng)加密不必是計算密碼(如果其加密或解密操作沒有有效的實現(xiàn))。

語義安全

在完美安全性公式中,我們對于密文空間上的所有謂詞φ,以及所有消息m0、m1,都有以下定義:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
上述式子中k是均勻分布在密鑰空間k上的隨機變量。現(xiàn)在我們做出一些改變,不再堅持k的取值概率相等,我們只要求它們非常接近;也就是說:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
這里的 ? \epsilon ? 當(dāng)然可以取一些非常小或可以忽略不計的值。它的意義在于,我們不要求完美安全的式子對每一個可能的φ、m0和m1都成立,雖然并非完全安全,但我們可能愿意說,該密碼在所有實際用途上都是安全的。

要了解語義安全,首先可以從理解完美保密性和實際保密性的概念入手。我們都知道,加密算法中有三個必備的東西:被加密的消息m,加密密鑰k,以及加密算法對(E, D)。我們首先來定義一下什么叫做加密算法的完美保密性:

斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

這個定義的意思是,對于任意等長的消息m,只要這個m屬于消息空間(就是說用這個加密算法可以加密m),那么用加密密鑰k加密后,加密結(jié)果“看起來都一樣”,沒法看出來這是從m,還是從其他什么消息加密得來的。密碼學(xué)中證明了,唯一能達(dá)到這個安全條件的加密算法是一次性密碼,其問題在于加密時使用的密鑰長度至少要跟消息長度一樣才行。

上面這個定義說的是加密結(jié)果讓誰看,“看起來都一樣”,這完美得太完美了?,F(xiàn)在我們稍作變動,選一個迄今為止計算能力最強的人來看加密的結(jié)果,要是他都覺得“看起來都一樣”。那就足夠了!到現(xiàn)在為止,計算能力最強的就是計算機了。這樣的話就引出了實際保密性:

斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

與上面相比,就一個符號改變了,就是等號變成了約等于號。

那么如何用計算機的計算能力來描述實際保密性呢?

我們用兩個計算機來定義。一個計算機是來攻擊這個加密算法的,叫攻擊者(Adversary);一個計算機是運行這個加密算法的,接受攻擊者的攻擊挑戰(zhàn),叫挑戰(zhàn)者(Challenger),挑戰(zhàn)者拿著密鑰k,攻擊者的目的就是看看挑戰(zhàn)者運行加密算法后,輸出的加密結(jié)果是不是“看起來一樣”。我們定義兩個實驗:實驗0,實驗1。

實驗0:

  1. 攻擊者自己任意選擇兩個消息m0、m1(注意,這個m0、m1是攻擊者自己選的)
  2. 攻擊者把這兩個消息發(fā)送給挑戰(zhàn)者。
  3. 挑戰(zhàn)者運行加密算法,加密m0,把加密結(jié)果發(fā)送給攻擊者。

實驗1:

  1. 攻擊者自己任意選擇兩個消息m0、m1(注意,這個m0、m1是攻擊者自己選的)
  2. 攻擊者把這兩個消息發(fā)送給挑戰(zhàn)者。
  3. 挑戰(zhàn)者運行加密算法,加密m1,把加密結(jié)果發(fā)送給攻擊者。

攻擊者的目的呢?就是看到加密結(jié)果后,猜這個加密結(jié)果是由m0加密來的,還是由m1加密來的。這兩個實驗唯一的區(qū)別就是,挑戰(zhàn)者是返回m0的加密結(jié)果,還是返回m1的加密結(jié)果。而且,執(zhí)行哪個實驗是挑戰(zhàn)者說了算!好啦,現(xiàn)在我們把這兩個實驗合起來:

實驗b:

  1. 攻擊者自己任意選擇兩個消息m0、m1(注意,這個m0、m1是攻擊者自己選的)
  2. 攻擊者把這兩個消息發(fā)送給挑戰(zhàn)者。
  3. 挑戰(zhàn)者運行加密算法,加密mb,把加密結(jié)果發(fā)送給攻擊者。

如果挑戰(zhàn)者以 1 2 \frac12 21?的概率執(zhí)行實驗0,以 1 2 \frac12 21?的概率執(zhí)行實驗1。那么,如果加密結(jié)果真的沒辦法反映出原始消息的一點點信息,那么攻擊者判斷正確的概率是多少呢?也應(yīng)該是 1 2 \frac12 21?,因為加密結(jié)果沒法幫助到他,所以他也只能隨便猜,猜對了就撞大運了。

語義安全的定義泛化

某些特定的安全屬性(稱為“X”),對于某些密碼系統(tǒng)(稱為“S”)可以定義為一個包含兩個實驗的攻擊博弈,實驗0和實驗1,其中對手A的協(xié)議在兩個實驗中是相同的,而挑戰(zhàn)者的協(xié)議是不同的。對于b = 0,1,我們定義Wb為A在實驗b中輸出1的事件,我們定義:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
成為A的" X優(yōu)勢"如上所述,我們總是可以定義一個攻擊博弈的“猜位”版本,挑戰(zhàn)者隨機選擇b∈{0,1},然后運行實驗b作為其協(xié)議。如果W是對手的輸出等于b的事件,那么我們定義:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
成為A的“猜位X優(yōu)勢”。我們還可以得出:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

上面這條公式是根據(jù)以下過程例證出來的:

設(shè)p0為攻擊博弈實驗0中對手輸出1的概率,設(shè)p1為對手輸出1的概率。如果我們以b = 0的事件為條件,那么在這個條件概率空間中,挑戰(zhàn)者和對手所做的所有其他隨機選擇的分布方式與實驗0的對應(yīng)值完全相同。因此,如果在攻擊游戲中,對手的輸出是b,我們有:

斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全

依次可以得到等號左右的兩倍關(guān)系。

可忽略函數(shù)

一個函數(shù)f:Z≥1→R被稱為可忽略函數(shù),如果對于所有的c∈R>0,存在n0∈Z≥1,使得對于所有的整數(shù)n≥n0,我們有|f(n)|<1/nc

定理:函數(shù) f:Z≥1→R 可忽略當(dāng)且僅當(dāng)對于所有的c > 0,我們有:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
比如說有這些函數(shù),2-n,n-logn,它們都是可忽略函數(shù)。

超聚函數(shù)

函數(shù) f:Z≥1→R 如果 1/f 可以忽略,則稱為超聚函數(shù)。

多有界函數(shù)

函數(shù) f::Z≥1→R 稱為多有界函數(shù),如果存在c, d∈R>0,使得對于所有n≥0的整數(shù),我們有|f(n)|≤nc + d。

注意,如果f是一個多界函數(shù),那么1/f肯定不是一個可以忽略的函數(shù)。例如,定義f: Z≥1→R,使f(n)對于所有偶整數(shù)n = 1/n, f(n)對于所有奇整數(shù)n = 2?n,則f不可忽略,且1/f既非聚有界也非超聚。

計算密碼的規(guī)范

我們說計算密碼 ? \epsilon ? =(E,D)是在(K,M,C)上定義的,其中K是密鑰空間,M是消息空間,C是密文空間,而這些空間中的每一個都是有限集,我們并沒有說出全部真相。在數(shù)學(xué)模型中(雖然在實際系統(tǒng)中并不總是如此),我們將密鑰、消息和密文空間的E族關(guān)聯(lián)起來,索引方式為:

(1)一個安全參數(shù),它是一個正整數(shù),用λ表示

(2)一個系統(tǒng)參數(shù),它是位串,用∧表示

因此,我們有了有限集族,而不僅僅是有限集K、M和C。
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
出于這個定義的目的,我們將其視為一組位字符串(它可以通過一些規(guī)范的編碼函數(shù)來表示數(shù)學(xué)對象)。其思想是,當(dāng)部署密碼 ? \epsilon ? 時,安全參數(shù)λ固定為某個值。一般來說,λ值越大,意味著安全級別越高(即對擁有更多計算資源的對手的抵抗力),但密鑰大小也越大,加密和解密速度也越慢。因此,安全參數(shù)就像我們可以轉(zhuǎn)動的“撥號盤”,在安全性和效率之間進行權(quán)衡。一旦選擇λ,系統(tǒng)參數(shù)∧將使用特定于密碼的算法生成。
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全
這一個固定實例可以部署在一個更大的系統(tǒng)中,并由多方使用—— λ 和 ∧ 的值是公開的,并且為所有人(包括對手)所知。

用一個例子來理解計算密碼的規(guī)范,附加一次性密碼,該密碼是以模n來描述的。為了部署這樣的密碼,會生成一個合適的模n,并將其公開。模n是該密碼的系統(tǒng)參數(shù)。安全參數(shù)的每個特定值決定n的長度(以位為單位)。值n本身由一些可能是概率的算法生成,其輸出分布可能取決于預(yù)期應(yīng)用。

計算密碼由一對算法E和D以及三個具有系統(tǒng)參數(shù)化P的空間族組成:
斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全文章來源地址http://www.zghlxwxcb.cn/news/detail-477613.html

到了這里,關(guān)于斯坦福Dan Boneh密碼學(xué)——02 計算密碼與語義安全的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 斯坦福人生設(shè)計課——簡略筆記(未完待更新)

    斯坦福人生設(shè)計課——簡略筆記(未完待更新)

    來源: ?爾 · 博內(nèi)特 戴夫 · 伊萬斯 著圖書《人生設(shè)計課》 目錄 一、認(rèn)清當(dāng)下的情況,從四個維度觀察自己的人生 二、平衡人生,但不要走入誤區(qū) 2.1 記錄你的“美好時光日志”: 2.1.1 記錄內(nèi)容: 2.1.2 輔助反思的方法:AEIOU方法 2.1.3 一個小TIPS: 2.1.4 如果你發(fā)現(xiàn)自己當(dāng)下

    2024年02月11日
    瀏覽(22)
  • 自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

    自驅(qū)力超強的羊駝?斯坦福微調(diào)LLaMa

    大型“指令調(diào)優(yōu)”語言模型在新任務(wù)上展現(xiàn)了Zero-shot的卓越能力,但嚴(yán)重依賴于人類編寫的指令數(shù)據(jù),而這些數(shù)據(jù)在數(shù)量、多樣性和創(chuàng)造性方面都是有限的。 斯坦福科研人員引入了self-instruction框架,提高指令遵循能力來自我迭代進化,與InstructGPT的性能相當(dāng),相比原始GPT3提

    2024年02月09日
    瀏覽(21)
  • 【LLM系列】00:斯坦福 Alpaca 模型介紹及其復(fù)現(xiàn)

    【LLM系列】00:斯坦福 Alpaca 模型介紹及其復(fù)現(xiàn)

    西風(fēng)吹老洞庭波,一夜湘君白發(fā)多。醉后不知天在水,滿船清夢壓星河。小伙伴好,我是微信公眾號《小窗幽記機器學(xué)習(xí)》的小編:賣核彈的小女孩。更多、更新文章歡迎關(guān)注微信公眾號:小窗幽記機器學(xué)習(xí)。后續(xù)會持續(xù)輸出模型推理加速、工程部署、LLM、AI藝術(shù)等系列,敬

    2024年02月13日
    瀏覽(21)
  • 斯坦福2023【FrugalGPT】減少大模型的商業(yè)化應(yīng)用成本

    斯坦福2023【FrugalGPT】減少大模型的商業(yè)化應(yīng)用成本

    FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance 這篇文章主要是要解決如何降低調(diào)用大語言模型的成本(ChatGPT)。大模型API調(diào)用成本主要是三方面的:1. prompt cost(輸入的prompt);2. generation cost(輸出的部分);3. 每次調(diào)用的固定開銷(網(wǎng)費等)。不用的模型之前的

    2024年02月06日
    瀏覽(22)
  • 斯坦福| ChatGPT用于生成式搜索引擎的可行性

    斯坦福| ChatGPT用于生成式搜索引擎的可行性

    文|智商掉了一地 隨著 ChatGPT 在文本生成領(lǐng)域邁出了重要一步,Bing 瀏覽器也接入了聊天機器人功能,因此如何保證 Bing Chat 等搜索引擎結(jié)果的精確率和真實性也成為了搜索領(lǐng)域的熱門話題之一。 當(dāng)我們使用搜索引擎時,往往希望搜索結(jié)果能夠真實準(zhǔn)確地反映我們的需求。然

    2024年02月06日
    瀏覽(16)
  • 【斯坦?!縁rugalGPT: 如何使用大型語言模型,同時降低成本并提高性能

    【斯坦?!縁rugalGPT: 如何使用大型語言模型,同時降低成本并提高性能

    FrugalGPT: 如何使用大型語言模型,同時降低成本并提高性能 作者:Lingjiao Chen, Matei Zaharia, James Zou 本文介紹了一種新穎的方法,旨在解決使用大型語言模型(LLM)時面臨的成本和性能挑戰(zhàn)。隨著GPT-4和ChatGPT等LLM的日益流行,我們需要找到降低這些模型推理成本的策略。作者強調(diào)

    2024年02月11日
    瀏覽(30)
  • 斯坦福 Stats60:21 世紀(jì)的統(tǒng)計學(xué):前言到第四章

    斯坦福 Stats60:21 世紀(jì)的統(tǒng)計學(xué):前言到第四章

    原文: statsthinking21.github.io/statsthinking21-core-site/index.html 譯者:飛龍 協(xié)議:CC BY-NC-SA 4.0 這本書的目標(biāo)是講述統(tǒng)計學(xué)的故事,以及它如何被全球的研究人員所使用。這是一個與大多數(shù)統(tǒng)計學(xué)入門書籍中講述的故事不同的故事,后者側(cè)重于教授如何使用一套工具來實現(xiàn)非常具體的

    2024年01月18日
    瀏覽(17)
  • 斯坦福發(fā)布 最新 GPT 模型排行榜 AlpacaEval【AI工具免費使用】

    斯坦福發(fā)布 最新 GPT 模型排行榜 AlpacaEval【AI工具免費使用】

    官網(wǎng)地址:https://www.tomchat.fun ?? 支持gpt4 / gpt-3.5 / claude /code-llm ?? 支持 AI繪畫 ?? 每天十次免費使用機會 ?? 無需魔法 GPT-4 登頂商用模型 微軟 WizardLM 登頂開源模型 AlpacaEva 是來自斯坦福的團隊發(fā)布的一款 大語言模型 自動評測系統(tǒng), 它是一種基于 LLM 的全自動評估基準(zhǔn),且

    2024年02月02日
    瀏覽(62)
  • 大模型也內(nèi)卷,Vicuna訓(xùn)練及推理指南,效果碾壓斯坦福羊駝

    大模型也內(nèi)卷,Vicuna訓(xùn)練及推理指南,效果碾壓斯坦福羊駝

    2023開年以來,大模型進入瘋狂內(nèi)卷狀態(tài),大模型的發(fā)布都要以“天”為單位進行迭代。 之前,嘗試了 從0到1復(fù)現(xiàn)斯坦福羊駝(Stanford Alpaca 7B) ,下面我們來嘗試從0到1復(fù)現(xiàn)Vicuna訓(xùn)練及推理。 繼斯坦福羊駝(Stanford Alpaca)之后,UC伯克利、CMU、斯坦福等機構(gòu)的學(xué)者,聯(lián)手發(fā)布

    2024年02月08日
    瀏覽(25)
  • Vicuna:斯坦福開源一個性能相當(dāng)于90%ChatGPT的聊天機器人

    Vicuna:斯坦福開源一個性能相當(dāng)于90%ChatGPT的聊天機器人

    自從Meta公司發(fā)布LLaMA以來,圍繞它微調(diào)和開發(fā)的模型越來越多,這得益于它的性能和效果,2023年3月份發(fā)布的草泥馬(Alpaca)是由Meta的LLaMA 7B微調(diào)而來的全新模型,僅用了52k數(shù)據(jù),性能約等于GPT-3.5。斯坦福發(fā)布了一個由LLaMA 7B微調(diào)的模型Alpaca(羊駝),訓(xùn)練3小時,性能比肩

    2024年02月10日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包