国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

零知識(shí)證明經(jīng)典文獻(xiàn)大匯總(可收藏)

這篇具有很好參考價(jià)值的文章主要介紹了零知識(shí)證明經(jīng)典文獻(xiàn)大匯總(可收藏)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

從去年的DAO經(jīng)典到更早的NFT經(jīng)典(以及在此之前是最初的加密經(jīng)典)。

本文, 為那些尋求理解、深入和構(gòu)建零知識(shí)的人挑選了一組資源:強(qiáng)大的基礎(chǔ)技術(shù),這些基礎(chǔ)技術(shù)掌握著區(qū)塊鏈可擴(kuò)展性的關(guān)鍵,代表著隱私應(yīng)用程序的未來,包括加密/web3中的應(yīng)用程序,以及無數(shù)其他創(chuàng)新。

這些創(chuàng)新由來已久:Shafi Goldwasser、Silvio Micali和Charles Rackoff于1985年引入了零知識(shí)證明系統(tǒng),并對(duì)密碼學(xué)領(lǐng)域產(chǎn)生了變革性的影響;他們因此獲得了2012年ACM圖靈獎(jiǎng)。由于這項(xiàng)工作已經(jīng)醞釀了數(shù)十年,尤其是在從理論到實(shí)踐的過程中,我們還首次在我們的經(jīng)典系列中分享了第二部分,由Justin Thaler按主題和年表組織注釋的閱讀清單。

zkprivacyecosystem官網(wǎng),區(qū)塊鏈,零知識(shí)證明,區(qū)塊鏈

?本文為第一部分。

基礎(chǔ)、背景、演變

其中一些論文也更多地涉及一般的密碼學(xué)(并非都是零知識(shí)本身),包括概述當(dāng)今零知識(shí)證明解決的問題或關(guān)鍵進(jìn)展:如何確保開放網(wǎng)絡(luò)中的隱私和身份驗(yàn)證。

New directions in cryptography (1976)——密碼學(xué)新方向 (1976)

作者:Whitfield Diffie和Martin Hellman

https://ee.stanford.edu/~hellman/publications/24.pdf

A method for obtaining digital signatures and public-key cryptosystems——一個(gè)獲得數(shù)字簽名和公鑰密碼系統(tǒng)的方法

作者:Ronald Rivest、Adi Shamir、Leonard Adelman

https://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=856E21BC2F75800D37FD611032C30B9C?doi=10.1.1.40.5588&rep=rep1&type= pdf

Protocols for public key cryptosystems (1980)——公鑰密碼系統(tǒng)協(xié)議 (1980)

作者:Ralph Merkle

http://www.merkle.com/papers/Protocols.pdf

Secure communications over insecure channels (1978)——通過不安全通道進(jìn)行安全通信 (1978)

作者:Ralph Merkle

https://www.merkle.com/1974/PuzzlesAsPublished.pdf

Use of elliptic curves in cryptography (1988)——在密碼學(xué)中使用橢圓曲線 (1988)

作者:Victor Miller

https://link.springer.com/content/pdf/10.1007%2F3-540-39799-X_31.pdf

The knowledge complexity of interactive proof-systems (1985)——交互式證明系統(tǒng)的知識(shí)復(fù)雜性 (1985)

作者:Shafi Goldwasser、Silvio Micali、Charles Rackof

https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.419.8132&rep=rep1&type=pdf

Computationally sound proofs (2000)——計(jì)算健全證明 (2000)

作者:Silvio Micali

https://people.csail.mit.edu/silvio/Selected%20Scientific%20Papers/Proof%20Systems/Computationally_Sound_Proofs.pdf

From extractable collision resistance to succinct non-interactive arguments of knowledge [SNARKs], and back again (2011)——從可提取的抗碰撞性到簡(jiǎn)潔的非交互式知識(shí)證明 [SNARKs],然后再返回(2011 年)

作者:Nir Bitansky、Ran Canetti、Alessandro Chiesa、Eran Tromer

https://eprint.iacr.org/2011/443.pdf

Efficient zero-kn文章來源地址http://www.zghlxwxcb.cn/news/detail-736150.html

到了這里,關(guān)于零知識(shí)證明經(jīng)典文獻(xiàn)大匯總(可收藏)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 經(jīng)典文獻(xiàn)閱讀之--VoxelMap(體素激光里程計(jì))

    經(jīng)典文獻(xiàn)閱讀之--VoxelMap(體素激光里程計(jì))

    作為激光里程計(jì),常用的方法一般是特征點(diǎn)法或者體素法,最近Mars實(shí)驗(yàn)室發(fā)表了一篇文章《Efficient and Probabilistic Adaptive Voxel Mapping for Accurate Online LiDAR Odometry》,同時(shí)還開源了代碼在Github上。文中為雷達(dá)里程計(jì)提出了一種高效的概率自適應(yīng)體素建圖方法。地圖是體素的集合,

    2024年02月16日
    瀏覽(20)
  • 經(jīng)典文獻(xiàn)閱讀之--PL-SLAM(點(diǎn)線SLAM)

    經(jīng)典文獻(xiàn)閱讀之--PL-SLAM(點(diǎn)線SLAM)

    之前作者基本都在圍繞著特征點(diǎn)提取的路徑在學(xué)習(xí),最近看到了最近點(diǎn)云PCL推送的《Structure PLP-SLAM: Efficient Sparse Mapping and Localization using Point, Line and Plane for Monocular, RGB-D and Stereo Cameras》。這個(gè)工作是基于OpenVSLAM架構(gòu)的,但是由于OpenVSLAM被認(rèn)為侵權(quán),所以作者想從PL-SLAM開始,學(xué)

    2024年02月11日
    瀏覽(22)
  • 經(jīng)典文獻(xiàn)閱讀之--VoxFormer(基于Transformer的3D語義場(chǎng)景補(bǔ)全)

    經(jīng)典文獻(xiàn)閱讀之--VoxFormer(基于Transformer的3D語義場(chǎng)景補(bǔ)全)

    之前了解了很多BEV的相關(guān)操作,但是基本上要么是激光和視覺結(jié)合,要么是純視覺完成的2D激光投影這兩種,而那種3D Occupancy方法可以利用柵格的方法完成純視覺占據(jù)柵格的生成?!禫oxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Completion》就是這種方法對(duì)于被遮擋的物

    2024年01月23日
    瀏覽(23)
  • 【零知識(shí)證明】數(shù)獨(dú)解的例子解釋零知識(shí)證明

    2022年11月14日 in 中國科學(xué)院大學(xué) 如何證明數(shù)獨(dú)有解?不能直接給出解(數(shù)據(jù)保護(hù)問題:數(shù)獨(dú)題目存在價(jià)值)。 一、零知識(shí)證明方法: 承諾 將謎底卡片扣在桌子上,謎面卡片放在桌子上。(Alice不能查看) 隨機(jī)挑戰(zhàn) 鏈下互動(dòng):Bob讓Alice用任意一種(行、列、宮格)方法檢查,

    2024年02月02日
    瀏覽(22)
  • 經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)

    經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)

    現(xiàn)在的SLAM算法在靜態(tài)環(huán)境中表現(xiàn)良好,但在動(dòng)態(tài)環(huán)境中很容易失敗。最近的工作將基于深度學(xué)習(xí)的語義信息引入到SLAM系統(tǒng)以減輕動(dòng)態(tài)對(duì)象的影響。然而,在資源受限的機(jī)器人的動(dòng)態(tài)環(huán)境中應(yīng)用魯棒定位仍然具有挑戰(zhàn)性。所以《RGB-D Inertial Odometry for a Resource-Restricted Robot in Dy

    2024年02月09日
    瀏覽(22)
  • 零知識(shí)證明學(xué)習(xí)(三)—— 非交互式零知識(shí)證明(zkSNARKs)

    本節(jié)主要介紹一種新的零知識(shí)證明- z k S N A R K zkSNARK z k S N A R K , z k S N A R K : z e r o ? k n o w l e d g e S u c c i n c t N o n ? I n t e r a c t i v e A r g u m e n t s o f K n o w l e d g e zkSNARK:zero-knowledge Succinct Non-Interactive Arguments of Knowledge z k S N A R K : z e r o ? k n o w l e d g e S u c c i n c t

    2024年01月20日
    瀏覽(30)
  • 經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點(diǎn)云建圖)

    經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點(diǎn)云建圖)

    對(duì)于現(xiàn)在的VSLAM而言,現(xiàn)在越來越多的工作開始聚焦于如何將深度學(xué)習(xí)結(jié)合到VSLAM當(dāng)中,而最近的這個(gè)工作就給出了一個(gè)比較合適的方法。《Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and NeRF-realized Mapping》這篇文章,可以輕松適應(yīng)新的場(chǎng)景,而不需要預(yù)先訓(xùn)練,并實(shí)時(shí)為

    2024年02月13日
    瀏覽(24)
  • 經(jīng)典文獻(xiàn)閱讀之--Gaussian Splatting SLAM(單目3D高斯濺射重建)

    經(jīng)典文獻(xiàn)閱讀之--Gaussian Splatting SLAM(單目3D高斯濺射重建)

    3D GS在NeRF領(lǐng)域已經(jīng)掀起了一股浪潮,然后又很快席卷到了SLAM領(lǐng)域,最近已經(jīng)看到很多3D GS和SLAM結(jié)合的開源工作了。將為大家分享帝國理工學(xué)院戴森機(jī)器人實(shí)驗(yàn)最新開源的方案《Gaussian Splatting SLAM》,這也是第一個(gè)將3D GS應(yīng)用到增量3D重建的工作,速度為3 FPS。要想實(shí)時(shí)從攝像頭

    2024年03月10日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--OccNeRF(基于神經(jīng)輻射場(chǎng)的自監(jiān)督多相機(jī)占用預(yù)測(cè))

    經(jīng)典文獻(xiàn)閱讀之--OccNeRF(基于神經(jīng)輻射場(chǎng)的自監(jiān)督多相機(jī)占用預(yù)測(cè))

    作為基于視覺感知的基本任務(wù),3D占據(jù)預(yù)測(cè)重建了周圍環(huán)境的3D結(jié)構(gòu)。它為自動(dòng)駕駛規(guī)劃和導(dǎo)航提供了詳細(xì)信息。然而,大多數(shù)現(xiàn)有方法嚴(yán)重依賴于激光雷達(dá)點(diǎn)云來生成占據(jù)地面真實(shí)性,而這在基于視覺的系統(tǒng)中是不可用的。之前我們介紹了《經(jīng)典文獻(xiàn)閱讀之–RenderOcc(使用2

    2024年02月03日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

    經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

    Camera與LiDAR之間的外部標(biāo)定研究正朝著更精確、更自動(dòng)、更通用的方向發(fā)展,由于很多方法在標(biāo)定中采用了深度學(xué)習(xí),因此大大減少了對(duì)場(chǎng)景的限制。然而,數(shù)據(jù)驅(qū)動(dòng)方法具有傳輸能力低的缺點(diǎn)。除非進(jìn)行額外的訓(xùn)練,否則它無法適應(yīng)數(shù)據(jù)集的變化。隨著基礎(chǔ)模型的出現(xiàn),這

    2024年02月02日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包