中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于深度學(xué)習(xí)的學(xué)生課堂行為識(shí)別

發(fā)布時(shí)間:2020-04-01 08:10
【摘要】:隨著教育步入智能時(shí)代,智能化的學(xué)生課堂行為識(shí)別變得越來(lái)越重要。但由于學(xué)生的課堂行為復(fù)雜多變,使得智能化的學(xué)生課堂行為識(shí)別存在困難。為了提高智能化學(xué)生行為識(shí)別的精度,文章首先采集了300名學(xué)生的7種典型課堂行為圖像,并進(jìn)行了數(shù)據(jù)預(yù)處理。隨后,文章將已在ImageNet數(shù)據(jù)集上訓(xùn)練好的經(jīng)典深度網(wǎng)絡(luò)模型——VGG16網(wǎng)絡(luò)模型遷移到學(xué)生課堂行為識(shí)別任務(wù)中。最后,通過(guò)與其它深度學(xué)習(xí)模型進(jìn)行實(shí)驗(yàn)對(duì)比,文章驗(yàn)證了VGG16網(wǎng)絡(luò)模型對(duì)學(xué)生課堂行為具有較高的識(shí)別精度。上述研究表明,基于深度學(xué)習(xí)的學(xué)生課堂行為識(shí)別能及時(shí)、精準(zhǔn)地反饋學(xué)生的課堂學(xué)習(xí)情況,有利于教師改進(jìn)教學(xué)方法、優(yōu)化課堂教學(xué)與管理,從而提高教與學(xué)的效率,助力教學(xué)改革。
【圖文】:

基于深度學(xué)習(xí)的學(xué)生課堂行為識(shí)別


同學(xué)的7種(e)站立(f)

課堂行為,圖像


Vol.29No.7201988(a)聽課(b)左顧右盼(c)舉手(d)睡覺(e)站立(f)看書(g)書寫圖1Z同學(xué)的7種典型課堂行為圖像2數(shù)據(jù)預(yù)處理為了極大地滿足學(xué)生課堂行為識(shí)別的需要,本研究對(duì)采集的圖像進(jìn)行了以下預(yù)處理操作:①在保持比例不變的情況下,將尺寸不一的圖像統(tǒng)一縮放成300×300(空白部分補(bǔ)零)的圖像;②以中心點(diǎn)為基準(zhǔn),縮放后的圖像統(tǒng)一裁剪為224×224的圖像;③圖像去均值。在深度網(wǎng)絡(luò)模型訓(xùn)練過(guò)程中,往往需要大量的訓(xùn)練樣本作為研究的數(shù)據(jù)支撐,但目前學(xué)生課堂行為識(shí)別數(shù)據(jù)的規(guī)模并不大。為了緩解目前訓(xùn)練樣本不足所導(dǎo)致的困難,本研究對(duì)訓(xùn)練圖像進(jìn)行了數(shù)據(jù)增強(qiáng),以增加訓(xùn)練樣本數(shù)目。具體來(lái)說(shuō),本研究主要采用了以下11種數(shù)據(jù)增強(qiáng)方法:①圖像向左旋轉(zhuǎn)20度;②圖像向右旋轉(zhuǎn)20度;③添加高斯噪聲;④設(shè)定矩形框內(nèi)的灰度值設(shè)為0;⑤隨機(jī)設(shè)置部分的像素值設(shè)為0;⑥中值模糊;⑦均值模糊;⑧高斯模糊;⑨每張圖像每隔兩行的像素點(diǎn)設(shè)為0,關(guān)鍵點(diǎn)保留;⑩向左平移20個(gè)像素點(diǎn);向上平移20個(gè)像素點(diǎn)。二基于深度學(xué)習(xí)的學(xué)生課堂行為識(shí)別1深度學(xué)習(xí)近年來(lái),深度學(xué)習(xí)迅猛發(fā)展,,在語(yǔ)音識(shí)別、圖像分類、文本理解等方面取得重大突破,特別是在圖像識(shí)別方面的成績(jī)尤為突出。在圖像識(shí)別方面,卷積神經(jīng)網(wǎng)絡(luò)最為流行。其中,視覺幾何組網(wǎng)絡(luò)(VisualGeometryGroupNeuralNetwork,VGGNet)是由牛津大學(xué)計(jì)算機(jī)視覺組開發(fā)的一種具有代表性的卷積神經(jīng)網(wǎng)絡(luò),其結(jié)構(gòu)簡(jiǎn)潔且易于實(shí)現(xiàn),在實(shí)際應(yīng)用中表現(xiàn)出了良好的性能,已得到了廣泛應(yīng)用[10];诖耍狙芯繑M采用VGG16網(wǎng)絡(luò)模型(包含16個(gè)隱藏層的VGGNet,是VGGNet的經(jīng)典版本之

【參考文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前1條

1 王琦;基于卷積神經(jīng)網(wǎng)絡(luò)的學(xué)生疲勞狀態(tài)檢測(cè)關(guān)鍵技術(shù)研究與實(shí)現(xiàn)[D];華中師范大學(xué);2016年

【共引文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前2條

1 梁昭德;基于卷積神經(jīng)網(wǎng)絡(luò)的駕駛?cè)似跈z測(cè)算法研究[D];華南理工大學(xué);2018年

2 張敬然;基于面部識(shí)別技術(shù)的在線學(xué)習(xí)行為深度感知方法研究與應(yīng)用[D];南京師范大學(xué);2018年

【二級(jí)參考文獻(xiàn)】

相關(guān)碩士學(xué)位論文 前10條

1 陳智;基于卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)簽場(chǎng)景分類[D];山東大學(xué);2015年

2 劉榮榮;基于卷積神經(jīng)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別軟件的設(shè)計(jì)與實(shí)現(xiàn)[D];內(nèi)蒙古大學(xué);2015年

3 張子夫;基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤算法研究與實(shí)現(xiàn)[D];吉林大學(xué);2015年

4 常歡;基于卷積神經(jīng)網(wǎng)絡(luò)的孤立手寫體漢字識(shí)別研究[D];安徽大學(xué);2015年

5 汪濟(jì)民;基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)和性別識(shí)別研究[D];南京理工大學(xué);2015年

6 李飛騰;卷積神經(jīng)網(wǎng)絡(luò)及其應(yīng)用[D];大連理工大學(xué);2014年

7 王強(qiáng);基于CNN的字符識(shí)別方法研究[D];天津師范大學(xué);2014年

8 陳先昌;基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法與應(yīng)用研究[D];浙江工商大學(xué);2014年

9 張建利;基于面部特征的學(xué)習(xí)狀態(tài)的研究[D];太原理工大學(xué);2013年

10 蔣友毅;基于多特征的疲勞駕駛檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];華中科技大學(xué);2013年

【相似文獻(xiàn)】

相關(guān)期刊論文 前4條

1 魏艷濤;秦道影;胡佳敏;姚璜;師亞飛;;基于深度學(xué)習(xí)的學(xué)生課堂行為識(shí)別[J];現(xiàn)代教育技術(shù);2019年07期

2 金瑭;;行為識(shí)別技術(shù)在教學(xué)中應(yīng)用的探討[J];電腦知識(shí)與技術(shù);2017年07期

3 韋心勤;歐軍明;;芻議CIS與學(xué)校形象建設(shè)[J];基礎(chǔ)教育研究;2013年06期

4 張連生;學(xué)校形象的價(jià)值及其塑造[J];教育評(píng)論;1999年06期

相關(guān)碩士學(xué)位論文 前1條

1 黨冬利;人體行為識(shí)別及在教育錄播系統(tǒng)中的應(yīng)用[D];西安科技大學(xué);2017年



本文編號(hào):2610192

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/2610192.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶f1c95***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com