深度學(xué)習(xí)在計(jì)算流體力學(xué)中的應(yīng)用
【文章頁(yè)數(shù)】:49 頁(yè)
【部分圖文】:
圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)。左:輸入層到隱層的權(quán)系數(shù)均為常值1;右:輸入層到隱層直接帶入圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)也會(huì)存在兩個(gè)糾結(jié)的問題,一是隱層的節(jié)點(diǎn)中用什么樣的激活函數(shù),二是隱層中設(shè)置多少個(gè)節(jié)點(diǎn)。在之前的逼近中,擬合效果會(huì)不....
圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)。左:輸入層到隱層的權(quán)系數(shù)均為常值1;右:輸入層到隱層直接帶入圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)也會(huì)存在兩個(gè)糾結(jié)的問題,一是隱層的節(jié)點(diǎn)中用什么樣的激活函數(shù),二是隱層中設(shè)置多少個(gè)節(jié)點(diǎn)。在之前的逼近中,擬合效果會(huì)不....
圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)∑=11()。用極小化損失函數(shù)求網(wǎng)絡(luò)中的權(quán)系數(shù)0,0和1,這神經(jīng)網(wǎng)絡(luò)的參數(shù)變量求解過程叫做訓(xùn)練或者學(xué)習(xí)。網(wǎng)絡(luò)學(xué)習(xí)中的隱層節(jié)點(diǎn)數(shù)n是需要損失函數(shù)不斷調(diào)參的。根據(jù)萬能逼近定理,只要隱層節(jié)點(diǎn)數(shù)足夠多,該網(wǎng)絡(luò)所表....
圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)
東北師范大學(xué)碩士學(xué)位論文圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)∑=11()。用極小化損失函數(shù)求網(wǎng)絡(luò)中的權(quán)系數(shù)0,0和1,這神經(jīng)網(wǎng)絡(luò)的參數(shù)變量求解過程叫做訓(xùn)練或者學(xué)習(xí)。網(wǎng)絡(luò)學(xué)習(xí)中的隱層節(jié)點(diǎn)數(shù)n是需要損失函數(shù)不斷調(diào)參的。根據(jù)萬能逼近定理,只要隱層節(jié)點(diǎn)數(shù)足夠多,該網(wǎng)絡(luò)所表....
本文編號(hào):3996680
本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/3996680.html