【相關(guān)鏈接】
【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(1. 緒論)
【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(3. 文本安全)
【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(4. 多媒體安全)
【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(5. 社交媒體安全)
【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(6. 大數(shù)據(jù)安全)
【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(7. 網(wǎng)絡(luò)信息內(nèi)容監(jiān)控)
2. 信息隱藏與數(shù)字水印
2.1. costa模型
- 載體看作是噪聲
2.2. Mulin模型
-
引入失真限度來衡量不可感知性
- 信息嵌入滿足失真限度D1: 當(dāng)s和x和y差不多時(shí)隱蔽性好: 隱寫失真小(不可感知性)
- 攻擊信道滿足失真限度D2: 攻擊失真小: 魯棒性, 能經(jīng)受攻擊的大小(魯棒性: 攻擊失真<D2)
-
信息隱藏的三個(gè)評(píng)估指標(biāo):
- 不可見性(失真度): 當(dāng)s和x和y差不多, 隱寫失真小
- 魯棒性: 攻擊失真小, 能經(jīng)受攻擊的大小
- 隱藏容量: 與信號(hào), 子信道(碼數(shù)率: 編碼器每秒編出的數(shù)據(jù)大小,單位是 kbps), 圖像/音頻, 失真函數(shù)有關(guān)
-
數(shù)字水印的性能評(píng)價(jià)
- 魯棒性: D k ( p ( E k ( c , m , k ) , k ) = D k ( E k ( c , m , k ) , k ) = m D_k(p(E_k(c,m,k),k)=D_k(E_k(c,m,k),k)=m Dk?(p(Ek?(c,m,k),k)=Dk?(Ek?(c,m,k),k)=m,其中p是一類映射C->C(C是載體信息), 相當(dāng)于做了一些非惡意修改
- 不可感知性: 要求嵌入信息后, 宿主數(shù)據(jù)質(zhì)量沒有明顯下降, 憑借人類感知系統(tǒng)不能發(fā)現(xiàn)其中嵌入了信息. 對(duì)于不可感知性的評(píng)價(jià): 主觀測(cè)試(測(cè)試人員進(jìn)行觀察), 客觀度量(差分失真度量, 相關(guān)性失真度量)
- 容量: 水印容量是水印系統(tǒng)信道的最大可靠傳輸率
2.3. 基于分類器的隱寫分析框架
- 基于分類器的隱寫分析框架
- 訓(xùn)練: 圖像樣本采集–>圖像預(yù)處理->特征提取->訓(xùn)練分類器->檢測(cè)圖像->分類
- 測(cè)試:圖像預(yù)處理->特征提取->檢測(cè)圖像->分類
- lenet5
- 基礎(chǔ)
- loss function的選取: 選取凹面損失函數(shù), 以便得到全局最優(yōu)值
- Loss function的原則和目的就是要衡量預(yù)測(cè)輸出Y_hat與真實(shí)樣本輸出y的接近程度
- 整個(gè)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程實(shí)際上包含了兩個(gè)過程:正向傳播(Forward Propagation)和反向傳播(Back Propagation)
- 計(jì)算圖(Computation graph):實(shí)現(xiàn)反向傳播
- 輸入層(Input layer),隱藏層(Hidden layer)和輸出層(Output layer)
- 激活函數(shù)的選擇:
- sigmoid取值范圍[0,1]一般用于輸出層
- tanh取值范圍[-1,+1], 隱藏層的輸出被限定在[-1,+1]之間,可以看成是在0值附近分布,均值為0。這樣從隱藏層到輸出層,數(shù)據(jù)起到了歸一化(均值為0)的效果, 通常用于隱藏層
- sigmoid tanh缺點(diǎn), 當(dāng)輸入特別大的時(shí)候梯度下降速率很慢, 因此出現(xiàn)了ReLU, LeakyReLU
- ReLU梯度下降速度快, 但是無法克服輸入為0的時(shí)候的取值, 因而出現(xiàn)LeakyReLU
- 為什么需要非線性函數(shù):
- 如果沒有非線性函數(shù), 那么最后的結(jié)果仍然是變量x的線性組合, 即便是包含多層隱藏層的神經(jīng)網(wǎng)絡(luò),如果使用線性函數(shù)作為激活函數(shù),最終的輸出仍然是輸入x的線性模型
- 神經(jīng)網(wǎng)絡(luò)模型中的參數(shù)權(quán)重W是不能全部初始化為零的:
- 這樣的結(jié)果是隱藏層所有神經(jīng)元對(duì)應(yīng)的權(quán)重行向量每次迭代更新都會(huì)得到完全相同的結(jié)果, 這樣隱藏層設(shè)置多個(gè)神經(jīng)元就沒有任何意義了。值得一提的是,參數(shù)b可以全部初始化為零,并不會(huì)影響神經(jīng)網(wǎng)絡(luò)訓(xùn)練效果
- 神經(jīng)網(wǎng)絡(luò)中的超參數(shù):
- 是例如學(xué)習(xí)速率αα,訓(xùn)練迭代次數(shù)N,神經(jīng)網(wǎng)絡(luò)層數(shù)L,各層神經(jīng)元個(gè)數(shù)n[l]n[l],激活函數(shù)g(z)g(z)等。之所以叫做超參數(shù)的原因是它們決定了參數(shù)W[l]W[l]和b[l]b[l]的值
- 如何設(shè)置最優(yōu)的超參數(shù)是一個(gè)比較困難的、需要經(jīng)驗(yàn)知識(shí)的問題。通常的做法是選擇超參數(shù)一定范圍內(nèi)的值,分別代入神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,測(cè)試cost function隨著迭代次數(shù)增加的變化,根據(jù)結(jié)果選擇cost function最小時(shí)對(duì)應(yīng)的超參數(shù)值
- 卷積神經(jīng)網(wǎng)絡(luò)
-
在深度學(xué)習(xí)中,如果我們想檢測(cè)圖片的各種邊緣特征,而不僅限于垂直邊緣和水平邊緣,那么filter的數(shù)值一般需要通過模型訓(xùn)練得到
-
padding: 如果原始圖片尺寸為n x n,filter尺寸為f x f,則卷積后的圖片尺寸為(n-f+1) x (n-f+1), 這樣會(huì)帶來兩個(gè)問題: 卷積運(yùn)算后, 輸出圖片尺寸縮小, 原始圖片邊緣信息對(duì)輸出貢獻(xiàn)得少, 輸出圖片丟失邊緣信息
- 經(jīng)過padding之后,原始圖片尺寸為(n+2p) x (n+2p),filter尺寸為f x f,則卷積后的圖片尺寸為(n+2p-f+1) x (n+2p-f+1)。若要保證卷積前后圖片尺寸不變,則p應(yīng)滿足: 2p-f+1=0
-
步長(zhǎng):
-
三維卷積:
- 過程是將每個(gè)單通道(R,G,B)與對(duì)應(yīng)的filter進(jìn)行卷積運(yùn)算求和,然后再將3通道的和相加,得到輸出圖片的一個(gè)像素值
- 為了進(jìn)行多個(gè)卷積運(yùn)算,實(shí)現(xiàn)更多邊緣檢測(cè),可以增加更多的濾波器組。例如設(shè)置第一個(gè)濾波器組實(shí)現(xiàn)垂直邊緣檢測(cè),第二個(gè)濾波器組實(shí)現(xiàn)水平邊緣檢測(cè)。這樣,不同濾波器組卷積得到不同的輸出,個(gè)數(shù)由濾波器組決定
-
選定濾波器組后,參數(shù)數(shù)目與輸入圖片尺寸無關(guān)。所以,就不存在由于圖片尺寸過大,造成參數(shù)過多的情況,
- 在CNN中,參數(shù)數(shù)目只由濾波器組決定,數(shù)目相對(duì)來說要少得多,這是CNN的優(yōu)勢(shì)之一
-
池化層
- Pooling layers是CNN中用來減小尺寸,提高運(yùn)算速度的,同樣能減小noise影響,讓各特征更具有健壯性
- 最大池化, 平均池化
- 沒有參數(shù)需要學(xué)習(xí), 只需確定超參數(shù)
-
為什么使用卷積神經(jīng)網(wǎng)絡(luò):
- 參數(shù)共享:一個(gè)特征檢測(cè)器(例如垂直邊緣檢測(cè))對(duì)圖片某塊區(qū)域有用,同時(shí)也可能作用在圖片其它區(qū)域
- 連接的稀疏性:因?yàn)闉V波器算子尺寸限制,每一層的每個(gè)輸出只與輸入部分區(qū)域內(nèi)有關(guān)
- 除此之外,由于CNN參數(shù)數(shù)目較小,所需的訓(xùn)練樣本就相對(duì)較少,從而一定程度上不容易發(fā)生過擬合現(xiàn)象。
- ,CNN比較擅長(zhǎng)捕捉區(qū)域位置偏移。也就是說CNN進(jìn)行物體檢測(cè)時(shí),不太受物體所處圖片位置的影響,增加檢測(cè)的準(zhǔn)確性和系統(tǒng)的健壯性
-
- lenet5描述
-
LeNet-5詳解
-
局部感受野: 對(duì)于一般的深度神經(jīng)網(wǎng)絡(luò),往往會(huì)把圖像的每一個(gè)像素點(diǎn)連接到全連接的每一個(gè)神經(jīng)元中,而卷積神經(jīng)網(wǎng)絡(luò)則是把每一個(gè)隱藏節(jié)點(diǎn)只連接到圖像的某個(gè)局部區(qū)域,從而減少參數(shù)訓(xùn)練的數(shù)量
-
共享權(quán)值。在卷積神經(jīng)網(wǎng)絡(luò)的卷積層中,神經(jīng)元對(duì)應(yīng)的權(quán)值是相同的,由于權(quán)值相同,因此可以減少訓(xùn)練的參數(shù)量。共享的權(quán)值和偏置也被稱作卷積核或?yàn)V汲器
-
池化。由于待處理的圖像往往都比較大,而在實(shí)際過程中,沒有必要對(duì)原圖進(jìn)行分析,能夠有效獲得圖像的特征才是最主要的,因此可以采用類似于圖像壓縮的思想,對(duì)圖像進(jìn)行卷積之后,通過一個(gè)下采樣過程,來調(diào)整圖像的大小
-
因?yàn)槲覀儜?yīng)對(duì)的領(lǐng)域是圖像識(shí)別的領(lǐng)域同時(shí)網(wǎng)絡(luò)的類型是基于BP的,因此針對(duì)這個(gè)領(lǐng)域先看看BP的缺點(diǎn),我們知道BP網(wǎng)絡(luò)是全連接的,對(duì)于圖片的識(shí)別,我們不用提取特征,一般一層提取特征的效果并不是很好,因此我們需要很多層,如果按照BP進(jìn)行全連接,會(huì)使得權(quán)值數(shù)量急劇增加,想要訓(xùn)練這么多的權(quán)值,樣本必須足夠的才行,即使樣本數(shù)量夠,但是計(jì)算量也會(huì)急劇增加,而且還有面臨梯度消失的情況,因此需要改進(jìn)連接的方式即采用局部連接和權(quán)值共享
-
此時(shí)是按照每個(gè)神經(jīng)元的連接權(quán)值如上圖的是其中一個(gè)神經(jīng)元的是4個(gè)權(quán)值,所謂權(quán)值共享,就是其他神經(jīng)元的權(quán)值也使用這四個(gè)值,此時(shí)的位置和數(shù)值都是這樣對(duì)應(yīng)的
-
邊緣過度不平滑: 為了解決這個(gè)問題引入了采樣窗口法使其彼此重疊
-
總共8層網(wǎng)絡(luò): 輸入層(INPUT)、卷積層(Convolutions,C1)、池化層(Subsampling,S2)、卷積層(C3)、池化層(Subsampling,S4)、卷積層(C5)、全連接層(F6)、輸出層(徑向基層)
-
-
卷積層(Convolutions,C1): 提取特征:
-
我們從上圖可以看到這里有6個(gè)特征平面(這里不應(yīng)該稱為卷積核,卷積核是滑動(dòng)窗口,通過卷積核提取特征的結(jié)果叫特 征平面)
-
6個(gè)特征平面對(duì)應(yīng)6個(gè)不同的卷積核或者6個(gè)濾波器,每個(gè)濾波器的參數(shù)值也就是權(quán)值都是一樣的,下圖就是卷積對(duì)應(yīng)的一個(gè)特征平面,這樣的平面有6個(gè),即卷積層有6個(gè)特征平面
-
權(quán)值數(shù)為:(5x5+1)x6 = 156個(gè)
-
池化層(Subsampling,S2): 降低數(shù)據(jù)維度:
- 池化層又叫下采樣層: 如何壓縮呢,通過選擇框的數(shù)據(jù)求和再取平均值然后在乘上一個(gè)權(quán)值和加上一個(gè)偏置值
-
卷積層(C3)
- 一個(gè)特征平面對(duì)應(yīng)不同個(gè)數(shù)的池化層
-
池化層(S4):
-
卷積層(C5):
- 16個(gè)平面且每個(gè)平面為5x5,本層使用的卷積核為5x5
- 本層只有120個(gè)神經(jīng)元并列排列
-
全連接層(F6):
-
輸出層:
-
- 基礎(chǔ)
2.4. 數(shù)字水印概述
- 數(shù)字水印的定義
- 用于版權(quán)保護(hù)的數(shù)字水印: 嵌入版權(quán)所有者信息
- 用于盜版跟蹤的數(shù)字指紋: 同時(shí)嵌入所有者信息, 購買者信息
- 用于拷貝保護(hù)的數(shù)字水印: 水印與作品的使用工具相結(jié)合
- 永久鑲嵌, 不影響可用性
- 數(shù)字水印特點(diǎn)
- 安全性: 數(shù)字水印難以被發(fā)現(xiàn)、擦除、篡改或偽造,同時(shí),要有較低的虛警率
- 可證明性: 數(shù)字水印為宿主的歸屬問題提供依據(jù)
- 不可感知性: 從感官上和統(tǒng)計(jì)上都不可感知
- 穩(wěn)健性: 數(shù)字樹蔭難以被擦除
- 脆弱性: 對(duì)載體的任何改變會(huì)引起水印的改變
- 數(shù)字水印嵌入和提取模型
- 水印嵌入: 水印信息, 載體數(shù)據(jù), 密鑰輸入水印算法, 得到瀚抒音的載體數(shù)據(jù)
- 水印提取算法: 載體數(shù)據(jù), 密鑰輸入水印提取算法, 得到水印信息
- 提取原始水印
- 非盲檢測(cè): 需要將原來的載體輸入提取算法
- 盲檢測(cè)
- 01判決
- 信息隱藏不一定需要載體
水印一定需要載體
水印一定有多于1比特的水印信息 - 常用的水印評(píng)價(jià)指標(biāo)
- 安全性:水印系統(tǒng)抵抗惡意攻擊的能力
- 魯棒性:水印系統(tǒng)承載常規(guī)處理的能力
- 透明度(保真度):嵌入水印后載體的感知度量(載體是不是還跟原來一樣)
- 水印容量:水印系統(tǒng)可攜帶的最大有效載荷數(shù)據(jù)量
- 計(jì)算量:嵌入算法與提取算法的計(jì)算成本
- 虛警率:未加水印而錯(cuò)誤的檢測(cè)出水印的概率
- 多水?。和惠d體中是否能嵌入多個(gè)互不干擾的水印
- 水印魯棒性
- 這里的p相當(dāng)于常規(guī)處理
- 這里的p相當(dāng)于沒有起到作用
- 魯棒性水印的實(shí)現(xiàn)方法
- 冗余嵌入
- 將水印冗余嵌入,是對(duì)抗各種失真的通用策
- 冗余嵌入帶來的問題是隱藏容量的成倍減少,等容量 嵌入引入的噪聲大大增加
- 水印透明性
- 隨著嵌入水印信息量的增加,水印載體的質(zhì)量必然下降
- 主管MOS值
- 客觀度量: 峰值信噪比
- 水印安全性
- 抵抗惡意攻擊的能力
- 常見攻擊
- 去除攻擊: 馬賽克攻擊: 將圖像分成許多小的矩形塊…
- 表達(dá)攻擊: stirmark攻擊: 集合變形, 對(duì)圖像進(jìn)行重采樣攻擊
2.5. 經(jīng)典算法
-
從載體上分類: 圖像, 視頻, 音頻, 軟件, 文檔
-
從外觀上分類: 可見水印(明確標(biāo)識(shí)版權(quán)), 不可見水印(目的是起訴非法使用者)
-
從檢測(cè)方法上分類, 非盲水印, 盲水印, 私鑰水印和公鑰水印
-
從加載方式上分類: 空間域水印: LSB方法, 變換域水印:在變換域中進(jìn)行的
-
從水印特性上分類:
- 健壯性數(shù)字水印: 用于版權(quán)標(biāo)識(shí)
- 脆弱性數(shù)字水印: 用于完整性保護(hù)
-
從使用目的上分類
- 版權(quán)標(biāo)識(shí)水印
- 數(shù)字指紋水印: 包含關(guān)于本件產(chǎn)品的版權(quán)信息,以及購買者的個(gè) 人信息,可以用于防止數(shù)字產(chǎn)品的非法拷貝和非 法傳播
-
LSB
-
LSB (the Least Significant Bits)即最不重要比特位。改變 LSB主要的考慮是不重要數(shù)據(jù)的調(diào)整對(duì)原始圖像的視覺效果影響較 小。 o 以圖像為例,圖像部分像素的最低一個(gè)或者多個(gè)位平面的值被隱藏 數(shù)據(jù)所替換。即載體像素的LSB平面根據(jù)要隱藏的數(shù)據(jù)改變?yōu)?“1”或者不變,以此達(dá)到隱藏信息的目的
-
LSB信息嵌入文章來源:http://www.zghlxwxcb.cn/news/detail-494054.html
-
clc; clear; msgfid = fopen('hidden.txt','r'); [msg, count] = fread(msgfid, 'ubit1'); fclose(msgfid); I = imread('lena512.bmp'); k = 1; for i = 1:512 for j = 1:512 if(k > count) break; end I(i, j) = I(i, j) - mod(I(i, j), 2) + msg(k, 1); k = k + 1; end if(k > count) break; end end imwrite(I, 'wm_lena.bmp','bmp'); figure; subplot(1,2,1); imshow('lena512.bmp'); subplot(1,2,2); imshow('wm_lena.bmp');
-
信息提取文章來源地址http://www.zghlxwxcb.cn/news/detail-494054.html
-
fid = fopen('message.txt','w'); wi = imread('wm_lena.bmp'); k = 1; for i = 1:512 for j = 1:512 if(bitand(wi(i, j), 1) == 1) fwrite(fid, 1, 'ubit1'); else fwrite(fid, 0, 'ubit1'); end if(k > count) break; end k = k + 1; end if(k > count) break; end end fclose(fid);
-
到了這里,關(guān)于【期末復(fù)習(xí)】北京郵電大學(xué)《數(shù)字內(nèi)容安全》課程期末復(fù)習(xí)筆記(2. 信息隱藏與數(shù)字水?。┑奈恼戮徒榻B完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!