中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁 > 科技論文 > 自動(dòng)化論文 >

深度學(xué)習(xí)在計(jì)算流體力學(xué)中的應(yīng)用

發(fā)布時(shí)間:2024-06-28 21:21
  近些年來,深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)新的研究方向,深度學(xué)習(xí)在智能搜索,智能機(jī)器人,人臉識(shí)別,語言處理,語音識(shí)別音樂新聞推薦等技術(shù)獲得了很多進(jìn)步成果,并且已開始大量應(yīng)用于各類工程問題。在計(jì)算流體力學(xué)領(lǐng)域,基礎(chǔ)模型復(fù)雜、運(yùn)算量大、難以集成等瓶頸長(zhǎng)期存在,從而具備了應(yīng)用深度學(xué)習(xí)方法的發(fā)展條件。本研究應(yīng)用深度學(xué)習(xí)的方法來求解流體力學(xué)問題。本文首先介紹了機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的基本概念,展示了二者在工程領(lǐng)域以及交叉學(xué)科的廣泛應(yīng)用。因此我們引入了基于物理知識(shí)的神經(jīng)網(wǎng)絡(luò),訓(xùn)練出這種神經(jīng)網(wǎng)絡(luò)來求解偏微分方程,具體給出了在對(duì)流體力學(xué)的方程中的應(yīng)用。本文主要應(yīng)用是學(xué)習(xí)基于物理的神經(jīng)網(wǎng)絡(luò),使用神經(jīng)網(wǎng)絡(luò)來求偏微分方程的解。我們預(yù)測(cè)了對(duì)流方程與Burgers方程的解,并與精確比較。通過控制神經(jīng)網(wǎng)絡(luò)層數(shù)、每層神經(jīng)元個(gè)數(shù)、訓(xùn)練數(shù)據(jù)量等變量,觀察預(yù)測(cè)解與準(zhǔn)確解之間的誤差。進(jìn)一步考慮了粘性項(xiàng)系數(shù)對(duì)Burgers方程的影響。最后結(jié)合圖像,給出了流體力學(xué)歐拉方程的預(yù)測(cè)解與精確解的比較。

【文章頁數(shù)】:49 頁

【部分圖文】:

圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)

圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)

東北師范大學(xué)碩士學(xué)位論文圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)。左:輸入層到隱層的權(quán)系數(shù)均為常值1;右:輸入層到隱層直接帶入圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)也會(huì)存在兩個(gè)糾結(jié)的問題,一是隱層的節(jié)點(diǎn)中用什么樣的激活函數(shù),二是隱層中設(shè)置多少個(gè)節(jié)點(diǎn)。在之前的逼近中,擬合效果會(huì)不....


圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)

圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)

東北師范大學(xué)碩士學(xué)位論文圖2.1:一元逼近函數(shù)的神經(jīng)網(wǎng)絡(luò)。左:輸入層到隱層的權(quán)系數(shù)均為常值1;右:輸入層到隱層直接帶入圖2.2:多元函數(shù)和向量值函數(shù)的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)也會(huì)存在兩個(gè)糾結(jié)的問題,一是隱層的節(jié)點(diǎn)中用什么樣的激活函數(shù),二是隱層中設(shè)置多少個(gè)節(jié)點(diǎn)。在之前的逼近中,擬合效果會(huì)不....


圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)

圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)

東北師范大學(xué)碩士學(xué)位論文圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)∑=11()。用極小化損失函數(shù)求網(wǎng)絡(luò)中的權(quán)系數(shù)0,0和1,這神經(jīng)網(wǎng)絡(luò)的參數(shù)變量求解過程叫做訓(xùn)練或者學(xué)習(xí)。網(wǎng)絡(luò)學(xué)習(xí)中的隱層節(jié)點(diǎn)數(shù)n是需要損失函數(shù)不斷調(diào)參的。根據(jù)萬能逼近定理,只要隱層節(jié)點(diǎn)數(shù)足夠多,該網(wǎng)絡(luò)所表....


圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)

圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)

東北師范大學(xué)碩士學(xué)位論文圖2.3:擬合曲線神經(jīng)網(wǎng)絡(luò)圖2.4:擬合曲線神經(jīng)網(wǎng)絡(luò)∑=11()。用極小化損失函數(shù)求網(wǎng)絡(luò)中的權(quán)系數(shù)0,0和1,這神經(jīng)網(wǎng)絡(luò)的參數(shù)變量求解過程叫做訓(xùn)練或者學(xué)習(xí)。網(wǎng)絡(luò)學(xué)習(xí)中的隱層節(jié)點(diǎn)數(shù)n是需要損失函數(shù)不斷調(diào)參的。根據(jù)萬能逼近定理,只要隱層節(jié)點(diǎn)數(shù)足夠多,該網(wǎng)絡(luò)所表....



本文編號(hào):3996680

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/3996680.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶2f7b6***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com