云端卷積神經(jīng)網(wǎng)絡(luò)算法的安全增強(qiáng)機(jī)制研究
發(fā)布時(shí)間:2020-12-16 22:36
機(jī)器學(xué)習(xí)即服務(wù)(Machine Learning as a Service,MLaaS)是一種全新的云端服務(wù)模式。在該服務(wù)模式下,云服務(wù)提供商通過(guò)將機(jī)器學(xué)習(xí)模型部署在云端來(lái)便捷地為廣大用戶提供各種基于機(jī)器學(xué)習(xí)的服務(wù),例如圖像分類、語(yǔ)音識(shí)別、在線翻譯等。云端的機(jī)器學(xué)習(xí)模型一般來(lái)說(shuō)有三種獲取途徑,第一種是云服務(wù)提供商自己進(jìn)行部署來(lái)為用戶提供免費(fèi)或付費(fèi)的服務(wù);第二種是第三方將模型托管到云端來(lái)為用戶提供服務(wù),因此模型的所有權(quán)是第三方;第三種是用戶自行訓(xùn)練模型,即云端提供計(jì)算服務(wù)來(lái)根據(jù)用戶提供的訓(xùn)練數(shù)據(jù)和機(jī)器學(xué)習(xí)代碼來(lái)為用戶訓(xùn)練模型。無(wú)論是哪種部署方式,該服務(wù)都需要直接獲取用戶的數(shù)據(jù)來(lái)驅(qū)動(dòng)機(jī)器學(xué)習(xí)模型,即數(shù)據(jù)需要上傳至云端。然而,當(dāng)用戶的輸入數(shù)據(jù)包含個(gè)人隱私時(shí),例如人臉圖片和醫(yī)療數(shù)據(jù)等,這種服務(wù)模式則會(huì)對(duì)用戶的隱私構(gòu)成直接威脅。為了解決這一服務(wù)模式下的安全風(fēng)險(xiǎn),研究人員已經(jīng)提出通過(guò)使用安全計(jì)算技術(shù)來(lái)保證隱私數(shù)據(jù)以密文的形式在云端進(jìn)行計(jì)算,從而使得云端無(wú)法獲取明文隱私數(shù)據(jù)。然而,由于安全計(jì)算技術(shù)的開(kāi)銷往往較高且云端模型的計(jì)算較為復(fù)雜,導(dǎo)致這種方法的計(jì)算和通信開(kāi)銷較大。本文關(guān)注用戶在使用云端部署的機(jī)...
【文章來(lái)源】:中國(guó)科學(xué)技術(shù)大學(xué)安徽省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:82 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1.2相關(guān)工作及其分類??
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?Neural?Network,?CNN)?—般由五種類型的神經(jīng)??層組成,即卷積層、激活層、池化層、全連接層和Softmax層。一個(gè)簡(jiǎn)單的卷積??神經(jīng)網(wǎng)絡(luò)的示意圖如圖2.1所示。??卷積層+激活層?池化層卷積層+激活層池化層?全連接層全連接層?Softmax層??圖2.1卷積神經(jīng)網(wǎng)絡(luò)示意圖??卷積神經(jīng)網(wǎng)絡(luò)的第一層(通常為卷積層)將原始數(shù)據(jù)(例如,X射線圖像)??作為輸入并計(jì)算得到輸出,之后的每個(gè)后續(xù)層都以前一層的輸出為輸入并計(jì)算??得到輸出。CNN使用多個(gè)神經(jīng)網(wǎng)絡(luò)層對(duì)輸入進(jìn)行串行處理并得到輸出,該輸出??為一個(gè)權(quán)重向量(一般被稱為logits),表示輸入屬于不同類別的權(quán)重大小。該向??量經(jīng)過(guò)一個(gè)Softmax層后轉(zhuǎn)化為一個(gè)累加和為1的概率向量,代表輸入屬于不同??類別的概率,此時(shí)擁有最大概率值的類別即為分類結(jié)果。接下來(lái)的內(nèi)容將具體地??介紹CNN中不同神經(jīng)網(wǎng)絡(luò)層的計(jì)算方法和作用。??2.1.1.卷積層(Convolution?Layer)??卷積層的輸入是大小為x?/i?x?C的圖像(featuremap),其中和/i分別??為圖像的寬度和高度
核輸入?輸出??圖2.2卷積運(yùn)算示意圖??〇?〇?0?0?0?0?0???????_____——-.,......…,[?1?r__r__r?r?????0?0?21?0?0?〇;〇?0?106??085?71?0000?001??0?250?231;?127?:?63?3?0?★?0?1?〇??0?250?252?250?209?56?0?;?10?0??0?250?252?250?250?83?0?'?[?3〇6?????卷積核??????0?0?0?〇〇〇?〇?'?v???、.?w__l:?1?—.?輸出??輸入??圖2.3卷積運(yùn)算的示例??其中代表卷積運(yùn)算。具體地,圖2.3展示了一個(gè)單一的卷積核與單一通道輸??入的卷積操作,卷積核會(huì)依次與輸入中的每一個(gè)匹配區(qū)域進(jìn)行卷積,且其中輸入??的周圍用0進(jìn)行填充的目的是保證輸出與輸入具有相同的大小。實(shí)際上,卷積層??還有一個(gè)“步幅”(stride)參數(shù),它控制著卷積核在輸入圖像上進(jìn)行卷積時(shí)的相??鄰兩個(gè)卷積區(qū)域的跨度,圖2.3示例的步幅為1。由于步幅不影響實(shí)際的安全實(shí)現(xiàn)??方案的設(shè)計(jì)
本文編號(hào):2920898
【文章來(lái)源】:中國(guó)科學(xué)技術(shù)大學(xué)安徽省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:82 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1.2相關(guān)工作及其分類??
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?Neural?Network,?CNN)?—般由五種類型的神經(jīng)??層組成,即卷積層、激活層、池化層、全連接層和Softmax層。一個(gè)簡(jiǎn)單的卷積??神經(jīng)網(wǎng)絡(luò)的示意圖如圖2.1所示。??卷積層+激活層?池化層卷積層+激活層池化層?全連接層全連接層?Softmax層??圖2.1卷積神經(jīng)網(wǎng)絡(luò)示意圖??卷積神經(jīng)網(wǎng)絡(luò)的第一層(通常為卷積層)將原始數(shù)據(jù)(例如,X射線圖像)??作為輸入并計(jì)算得到輸出,之后的每個(gè)后續(xù)層都以前一層的輸出為輸入并計(jì)算??得到輸出。CNN使用多個(gè)神經(jīng)網(wǎng)絡(luò)層對(duì)輸入進(jìn)行串行處理并得到輸出,該輸出??為一個(gè)權(quán)重向量(一般被稱為logits),表示輸入屬于不同類別的權(quán)重大小。該向??量經(jīng)過(guò)一個(gè)Softmax層后轉(zhuǎn)化為一個(gè)累加和為1的概率向量,代表輸入屬于不同??類別的概率,此時(shí)擁有最大概率值的類別即為分類結(jié)果。接下來(lái)的內(nèi)容將具體地??介紹CNN中不同神經(jīng)網(wǎng)絡(luò)層的計(jì)算方法和作用。??2.1.1.卷積層(Convolution?Layer)??卷積層的輸入是大小為x?/i?x?C的圖像(featuremap),其中和/i分別??為圖像的寬度和高度
核輸入?輸出??圖2.2卷積運(yùn)算示意圖??〇?〇?0?0?0?0?0???????_____——-.,......…,[?1?r__r__r?r?????0?0?21?0?0?〇;〇?0?106??085?71?0000?001??0?250?231;?127?:?63?3?0?★?0?1?〇??0?250?252?250?209?56?0?;?10?0??0?250?252?250?250?83?0?'?[?3〇6?????卷積核??????0?0?0?〇〇〇?〇?'?v???、.?w__l:?1?—.?輸出??輸入??圖2.3卷積運(yùn)算的示例??其中代表卷積運(yùn)算。具體地,圖2.3展示了一個(gè)單一的卷積核與單一通道輸??入的卷積操作,卷積核會(huì)依次與輸入中的每一個(gè)匹配區(qū)域進(jìn)行卷積,且其中輸入??的周圍用0進(jìn)行填充的目的是保證輸出與輸入具有相同的大小。實(shí)際上,卷積層??還有一個(gè)“步幅”(stride)參數(shù),它控制著卷積核在輸入圖像上進(jìn)行卷積時(shí)的相??鄰兩個(gè)卷積區(qū)域的跨度,圖2.3示例的步幅為1。由于步幅不影響實(shí)際的安全實(shí)現(xiàn)??方案的設(shè)計(jì)
本文編號(hào):2920898
本文鏈接:http://www.lk138.cn/guanlilunwen/ydhl/2920898.html
最近更新
教材專著