中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁(yè) > 科技論文 > 動(dòng)力論文 >

熱電子發(fā)射能量轉(zhuǎn)化傳熱過程的數(shù)值模擬和實(shí)驗(yàn)研究

發(fā)布時(shí)間:2020-11-08 16:53
   熱電子發(fā)射能量轉(zhuǎn)換器是一種將熱能直接轉(zhuǎn)換成電能的電真空器件,是基于高溫下電子會(huì)從發(fā)射極表面蒸發(fā)的熱電子發(fā)射現(xiàn)象發(fā)展而來的。它依靠發(fā)射極的熱電子發(fā)射以及收集極對(duì)發(fā)射極的正接觸電位差輸出電流。這樣的器件可以將加熱發(fā)射極的能量變成低壓大電流的直流電輸出。一個(gè)簡(jiǎn)單的熱電子發(fā)射能量轉(zhuǎn)換器的結(jié)構(gòu)僅需要包括一個(gè)發(fā)射極和一個(gè)收集極。當(dāng)具有較高功函數(shù)的發(fā)射極被加熱,電子就從金屬表面發(fā)射,并被收集極即陽(yáng)極捕獲,此時(shí)負(fù)載連接發(fā)射極和收集極就可以產(chǎn)生電流。理想熱電子發(fā)射能量轉(zhuǎn)換效率受到以下三個(gè)過程影響:對(duì)于熱電子發(fā)射能量轉(zhuǎn)換器的研究一般是從兩個(gè)方向展開,一是提高發(fā)射極的溫度,二是在保證效率的情況下,降低發(fā)射極工作溫度,以擴(kuò)展熱電子的應(yīng)用范圍。為了在較低溫度下獲得較高效率,可以通過尋找低逸出功的發(fā)射極材料,減少兩電極間距和引入正銫離子以中和空間電荷效應(yīng)。從傳熱角度分析熱電子發(fā)射能量轉(zhuǎn)換器輸出特性,分析導(dǎo)熱、對(duì)流換熱、輻射換熱等對(duì)熱電子發(fā)射能量轉(zhuǎn)換器輸出特性的影響。建立兩種不同的熱電子發(fā)射能量轉(zhuǎn)換器模型,對(duì)熱電子發(fā)射能量轉(zhuǎn)換器做出改進(jìn)。通過數(shù)值模擬,研究分析影響發(fā)射極溫度和熱電子發(fā)射能量轉(zhuǎn)換器輸出特性的因素。結(jié)果表明,接收極直徑和保溫材料導(dǎo)熱系數(shù)越小,加熱功率越大,反光膜反光率越大,發(fā)射極溫度、輸出電流密度和效率越高;在各部分傳熱過程中影響發(fā)射極溫度和效率的主要因素是固體間的導(dǎo)熱。總的來說,充足的光照,合理的接收極尺寸和做好保溫措施可以有效改善熱電子發(fā)射能量轉(zhuǎn)換器的輸出特性。對(duì)于TEC而言,發(fā)射極溫度對(duì)其輸出功率和效率有重要影響,針對(duì)發(fā)射極加熱建立真空輻射絕熱系統(tǒng)進(jìn)行實(shí)驗(yàn)研究。實(shí)驗(yàn)裝置主要分為三個(gè)部分,激光加熱器和吸熱裝置和測(cè)溫部分。實(shí)驗(yàn)通過改變激光器輸出功率和真空絕熱裝置的真空度探究不同因素對(duì)發(fā)射極溫度的影響。結(jié)果表明,加熱功率越大,發(fā)射極溫度越高,但隨著加熱功率的不斷增大,其對(duì)發(fā)射極溫度的升高影響越來越小;在中真空度下,真空度越高,發(fā)射極溫度越高,因?yàn)橥ㄟ^氣體導(dǎo)熱散失的能量減少,但影響并不明顯。以氧化物陰極和六硼化鑭薄膜為兩極,建立熱電轉(zhuǎn)化實(shí)驗(yàn)系統(tǒng),通過改變輸入功率和外加電壓,探究系統(tǒng)特性。實(shí)驗(yàn)證明,隨著加熱功率增大,熱電轉(zhuǎn)化系統(tǒng)輸出電流及轉(zhuǎn)化效率也增大,且趨勢(shì)越來越明顯;在一定范圍內(nèi),改變外加電壓會(huì)影響系統(tǒng)的輸出電流和效率,但存在臨界值。
【學(xué)位單位】:東南大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位年份】:2018
【中圖分類】:TK124
【部分圖文】:

原理圖,熱電子,發(fā)電機(jī),原理圖


TEC)是一種熱機(jī)。以熱能為能源直接進(jìn)行能量轉(zhuǎn)換的裝置,熱電子發(fā)射能量數(shù)材料的缺乏阻礙了基于真空的熱電始回顧這項(xiàng)技術(shù),因?yàn)樵谶^去的這段時(shí)[7]。一種將熱能直接轉(zhuǎn)換成電能的電真空射現(xiàn)象發(fā)展而來的[8]。它依靠發(fā)射極的流。這樣的器件可以將加熱發(fā)射極的能射能量轉(zhuǎn)換器的結(jié)構(gòu)僅需要包括一個(gè)發(fā),電子就從金屬表面發(fā)射,并被收集極電流。圖 1-1 給出這一轉(zhuǎn)換器的基本結(jié)

能量轉(zhuǎn)換器,空間電荷效應(yīng),蒸汽熱,電子發(fā)射


并一直延續(xù)至今[10]。一般來說,一個(gè)真空熱電子發(fā)射能量轉(zhuǎn)換器有一個(gè)極小的空間限制的電子運(yùn)動(dòng),如圖1-2 所示(a)。圖 1-2 (a)VTEC(b)蒸汽熱電子發(fā)射能量轉(zhuǎn)換器過多的電子在傳輸過程中會(huì)形成電子云,導(dǎo)致空間電荷效應(yīng),最終導(dǎo)致效率降低。而對(duì)水蒸氣熱電子發(fā)射能量轉(zhuǎn)換器而言,沒有電極間距太大的問題,因?yàn)榭臻g充滿了蒸氣,如圖 1-2(b)。該類型的轉(zhuǎn)換器中的空間電荷效應(yīng)由正離子中和,這些離子通常由銫產(chǎn)生,因?yàn)樗苋菀纂婋x。在可實(shí)現(xiàn)程度方面,報(bào)告顯示,在現(xiàn)實(shí)生活中,真空熱電子發(fā)射能量轉(zhuǎn)換器幾乎是不可能實(shí)現(xiàn)的,由于穩(wěn)定的低功函數(shù)材料很難得到,并且熱隔離結(jié)構(gòu)的電極很難實(shí)現(xiàn),而水蒸氣熱電子發(fā)射能量轉(zhuǎn)換器明顯有著更好的表現(xiàn)。然而,水蒸氣熱電子發(fā)射能量轉(zhuǎn)換器也有阻礙其發(fā)展的致命因素,如中和空間電荷效應(yīng)正離子不足,和在極限空間中彈性碰撞的不利影響[9]。熱電子發(fā)射能量發(fā)電的基本理論,其基本形式包括:1)兩個(gè)電極,一個(gè)是發(fā)射極,它被加熱到足夠高的溫度,產(chǎn)生高能電子,和一個(gè)接收極,用來接收發(fā)射極所發(fā)射的電子,接收極是在一個(gè)較低的溫度下運(yùn)行,兩個(gè)電極彼此間有細(xì)微的間隙分離,可由真空,蒸氣或等離子體填充;2)電負(fù)荷;3)連接線路[9]。熱源連接到發(fā)射極

原理圖,熱電子,制冷原理


第一章 緒論。早在 1997 年, Mahan G. D.[22]就提出可以通過熱電子結(jié)構(gòu)中包括了金屬和半導(dǎo)體之間的肖特基勢(shì)壘結(jié)構(gòu)。行了研究, 提出使用半導(dǎo)體異質(zhì)結(jié)構(gòu)(HIT)作為熱電子制半導(dǎo)體覆蓋層用以降低材料表面功函。嘗試通過外部方法引入正銫離子以中和空間電荷效應(yīng),.等[23]將熱電子發(fā)射能量轉(zhuǎn)換器浸沒于共振光中,實(shí)驗(yàn)收,從而產(chǎn)生更多的銫離子,其最大的電流密度可以達(dá)轉(zhuǎn)換的逆過程是一個(gè)吸熱過程,通過在兩極板間加電壓端電極到熱端電極的凈電子流動(dòng),從而將發(fā)射極熱量帶冷的原理圖。熱電子制冷的研究和發(fā)展同熱電子發(fā)電技制冷的優(yōu)點(diǎn)如無污染、體積小、制冷迅速、無噪聲等,制冷器和超晶格熱電子制冷器是當(dāng)前實(shí)現(xiàn)室溫條件下的制冷溫差最大為 3 ℃,制冷功率密度為 300 W/m2。復(fù)雜、難度大,運(yùn)行成本高,實(shí)際制冷效率與理論值還
【參考文獻(xiàn)】

相關(guān)期刊論文 前5條

1 楊愛勇,王心亮,顧■;磁流體發(fā)電技術(shù)的回顧與展望[J];煤氣與熱力;2003年01期

2 馬勇,孔春陽(yáng);ITO薄膜的光學(xué)和電學(xué)性質(zhì)及其應(yīng)用[J];重慶大學(xué)學(xué)報(bào)(自然科學(xué)版);2002年08期

3 孫玉武,倪秋芽,童建忠;脈沖磁流體發(fā)電機(jī)研究的發(fā)展?fàn)顩r[J];高技術(shù)通訊;2000年06期

4 何學(xué)裘;關(guān)于磁流體發(fā)電的前景分析及對(duì)策思考[J];高技術(shù)通訊;1997年06期

5 張河,方光耀,賴玉珠;短時(shí)間、大功率磁流體發(fā)電[J];兵工學(xué)報(bào);1994年01期



本文編號(hào):2875063

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/dongligc/2875063.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶ab1a3***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com