中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)的學(xué)生課堂行為識別

發(fā)布時間:2020-04-01 08:10
【摘要】:隨著教育步入智能時代,智能化的學(xué)生課堂行為識別變得越來越重要。但由于學(xué)生的課堂行為復(fù)雜多變,使得智能化的學(xué)生課堂行為識別存在困難。為了提高智能化學(xué)生行為識別的精度,文章首先采集了300名學(xué)生的7種典型課堂行為圖像,并進(jìn)行了數(shù)據(jù)預(yù)處理。隨后,文章將已在ImageNet數(shù)據(jù)集上訓(xùn)練好的經(jīng)典深度網(wǎng)絡(luò)模型——VGG16網(wǎng)絡(luò)模型遷移到學(xué)生課堂行為識別任務(wù)中。最后,通過與其它深度學(xué)習(xí)模型進(jìn)行實驗對比,文章驗證了VGG16網(wǎng)絡(luò)模型對學(xué)生課堂行為具有較高的識別精度。上述研究表明,基于深度學(xué)習(xí)的學(xué)生課堂行為識別能及時、精準(zhǔn)地反饋學(xué)生的課堂學(xué)習(xí)情況,有利于教師改進(jìn)教學(xué)方法、優(yōu)化課堂教學(xué)與管理,從而提高教與學(xué)的效率,助力教學(xué)改革。
【圖文】:

基于深度學(xué)習(xí)的學(xué)生課堂行為識別


同學(xué)的7種(e)站立(f)

課堂行為,圖像


Vol.29No.7201988(a)聽課(b)左顧右盼(c)舉手(d)睡覺(e)站立(f)看書(g)書寫圖1Z同學(xué)的7種典型課堂行為圖像2數(shù)據(jù)預(yù)處理為了極大地滿足學(xué)生課堂行為識別的需要,本研究對采集的圖像進(jìn)行了以下預(yù)處理操作:①在保持比例不變的情況下,將尺寸不一的圖像統(tǒng)一縮放成300×300(空白部分補零)的圖像;②以中心點為基準(zhǔn),縮放后的圖像統(tǒng)一裁剪為224×224的圖像;③圖像去均值。在深度網(wǎng)絡(luò)模型訓(xùn)練過程中,往往需要大量的訓(xùn)練樣本作為研究的數(shù)據(jù)支撐,但目前學(xué)生課堂行為識別數(shù)據(jù)的規(guī)模并不大。為了緩解目前訓(xùn)練樣本不足所導(dǎo)致的困難,本研究對訓(xùn)練圖像進(jìn)行了數(shù)據(jù)增強,以增加訓(xùn)練樣本數(shù)目。具體來說,本研究主要采用了以下11種數(shù)據(jù)增強方法:①圖像向左旋轉(zhuǎn)20度;②圖像向右旋轉(zhuǎn)20度;③添加高斯噪聲;④設(shè)定矩形框內(nèi)的灰度值設(shè)為0;⑤隨機(jī)設(shè)置部分的像素值設(shè)為0;⑥中值模糊;⑦均值模糊;⑧高斯模糊;⑨每張圖像每隔兩行的像素點設(shè)為0,關(guān)鍵點保留;⑩向左平移20個像素點;向上平移20個像素點。二基于深度學(xué)習(xí)的學(xué)生課堂行為識別1深度學(xué)習(xí)近年來,深度學(xué)習(xí)迅猛發(fā)展,,在語音識別、圖像分類、文本理解等方面取得重大突破,特別是在圖像識別方面的成績尤為突出。在圖像識別方面,卷積神經(jīng)網(wǎng)絡(luò)最為流行。其中,視覺幾何組網(wǎng)絡(luò)(VisualGeometryGroupNeuralNetwork,VGGNet)是由牛津大學(xué)計算機(jī)視覺組開發(fā)的一種具有代表性的卷積神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)簡潔且易于實現(xiàn),在實際應(yīng)用中表現(xiàn)出了良好的性能,已得到了廣泛應(yīng)用[10];诖,本研究擬采用VGG16網(wǎng)絡(luò)模型(包含16個隱藏層的VGGNet,是VGGNet的經(jīng)典版本之

【參考文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前1條

1 王琦;基于卷積神經(jīng)網(wǎng)絡(luò)的學(xué)生疲勞狀態(tài)檢測關(guān)鍵技術(shù)研究與實現(xiàn)[D];華中師范大學(xué);2016年

【共引文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前2條

1 梁昭德;基于卷積神經(jīng)網(wǎng)絡(luò)的駕駛?cè)似跈z測算法研究[D];華南理工大學(xué);2018年

2 張敬然;基于面部識別技術(shù)的在線學(xué)習(xí)行為深度感知方法研究與應(yīng)用[D];南京師范大學(xué);2018年

【二級參考文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前10條

1 陳智;基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)簽場景分類[D];山東大學(xué);2015年

2 劉榮榮;基于卷積神經(jīng)網(wǎng)絡(luò)的手寫數(shù)字識別軟件的設(shè)計與實現(xiàn)[D];內(nèi)蒙古大學(xué);2015年

3 張子夫;基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤算法研究與實現(xiàn)[D];吉林大學(xué);2015年

4 常歡;基于卷積神經(jīng)網(wǎng)絡(luò)的孤立手寫體漢字識別研究[D];安徽大學(xué);2015年

5 汪濟(jì)民;基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測和性別識別研究[D];南京理工大學(xué);2015年

6 李飛騰;卷積神經(jīng)網(wǎng)絡(luò)及其應(yīng)用[D];大連理工大學(xué);2014年

7 王強;基于CNN的字符識別方法研究[D];天津師范大學(xué);2014年

8 陳先昌;基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法與應(yīng)用研究[D];浙江工商大學(xué);2014年

9 張建利;基于面部特征的學(xué)習(xí)狀態(tài)的研究[D];太原理工大學(xué);2013年

10 蔣友毅;基于多特征的疲勞駕駛檢測系統(tǒng)的設(shè)計與實現(xiàn)[D];華中科技大學(xué);2013年

【相似文獻(xiàn)】

相關(guān)期刊論文 前4條

1 魏艷濤;秦道影;胡佳敏;姚璜;師亞飛;;基于深度學(xué)習(xí)的學(xué)生課堂行為識別[J];現(xiàn)代教育技術(shù);2019年07期

2 金瑭;;行為識別技術(shù)在教學(xué)中應(yīng)用的探討[J];電腦知識與技術(shù);2017年07期

3 韋心勤;歐軍明;;芻議CIS與學(xué)校形象建設(shè)[J];基礎(chǔ)教育研究;2013年06期

4 張連生;學(xué)校形象的價值及其塑造[J];教育評論;1999年06期

相關(guān)碩士學(xué)位論文 前1條

1 黨冬利;人體行為識別及在教育錄播系統(tǒng)中的應(yīng)用[D];西安科技大學(xué);2017年



本文編號:2610192

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/2610192.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f1c95***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com