直播推薦
企業(yè)動態(tài)
- 首都共享中央廚房首批項目在平谷區(qū)開工 助力北京打造食品安全城市
- 深耕專業(yè)沃土:東莞皓天試驗設(shè)備有限公司啟動全員新款設(shè)備知識攻堅行動
- ?凌晨裝車、跨省奔襲:皓天試驗設(shè)備技術(shù)團隊的秦皇島交付記
- 中國石油和化工勘察設(shè)計協(xié)會電氣設(shè)計專業(yè)委員會2025年年中工作會議
- 從構(gòu)建方法論到服務(wù)加碼,華為加速釋放AI時代制造業(yè)數(shù)智潛能
- 銳呈NTP網(wǎng)絡(luò)時鐘在內(nèi)蒙滿洲里熱電廠成功投運
- 柔性生產(chǎn)vs僵化成本,U9 cloud如何為智造企業(yè)重構(gòu)“成本基因”?
- 嚴(yán)苛測試護航半導(dǎo)體品質(zhì):浙江企業(yè)添TEE-408PF快速溫變箱
推薦展會
隨著社會的發(fā)展,社交型服務(wù)機器人(Social Robot)逐漸進入人們的日常生活,他們通過在日常環(huán)境中與用戶進行近距離交互,引起用戶的社交行為來提供服務(wù)。與人交互的能力是這類機器人的重要能力,交互能力不僅體現(xiàn)在機器人具有豐富的感知能力和響應(yīng)能力,還要求機器人能夠在不同的場合做出合適的交互行為。目前這類機器人往往只能由專業(yè)技術(shù)人員針對特定的應(yīng)用領(lǐng)域進行研發(fā),而機器人的智能水平還沒有達到自主適應(yīng)不同場合的程度,因此影響了機器人的普及。本文以在公共場合提供服務(wù)的社交型服務(wù)機器人與人交互(Human-Robot Interaction,HRI)作為研究對象,從兩個方面開展研究來提高服務(wù)機器人的人機交互能力:(1)研究如何提高機器人的感知能力,包括人體檢測、人體跟蹤和交互狀態(tài)識別的能力;(2)研究如何由用戶根據(jù)應(yīng)用場合的需要更新交互知識來更新機器人的交互功能,使機器人適應(yīng)不同的交互場合。zui終實現(xiàn)了將機器人作為一個具有豐富感知能力和響應(yīng)能力的平臺,讓用戶通過直觀描述交互知識的方式去開發(fā)機器人的交互功能,提高機器人的交互能力。主要的研究內(nèi)容和成果概括如下:(1)為了增強機器人與人交互過程中前景檢測的魯棒性,對現(xiàn)有的背景減除方法進行了改進。以圖像顏色、亮度和邊緣特征的變化作為圖像參數(shù)來評估輸入圖像和前景檢測結(jié)果。通過避免使用可能破壞背景模型的圖像進行背景模型的更新、使用系統(tǒng)檢測狀態(tài)更新背景模型被破壞的概率、以及及時重建被破壞的背景模型等三種方式保證背景減除法能夠使用正確的背景模型來檢測人體前景。實驗結(jié)果表明,在人機交互的人體前景檢測中,該方法能夠有效降低背景模型被破壞的概率并提高現(xiàn)有背景減除法的魯棒性。(2)針對機器人在與人交互過程中對人體目標(biāo)的跟蹤容易受到周圍其它人體干擾的問題,提出了一種改進的融合均值偏移的粒子濾波跟蹤算法。該算法將所有干擾區(qū)域看作候選目標(biāo),通過建立基于重疊率的粒子分布模型,確保粒子集可以通過均值偏移收斂到所有的候選目標(biāo),并減少粒子數(shù)量。以權(quán)重距離總誤差和目標(biāo)尺寸作為聚類條件,將粒子劃分到相應(yīng)的候選目標(biāo)粒子集中,zui后選擇*的候選目標(biāo)作為跟蹤結(jié)果。實驗結(jié)果表明,該方法能夠避免周圍相似物體的干擾并準(zhǔn)確跟蹤目標(biāo),具有較好的魯棒性和實時性。(3)針對多人交互環(huán)境下攝像頭的移動會容易導(dǎo)致錯誤跟蹤到其它相似人體的問題,提出了基于局部背景特征點的人體目標(biāo)定位和跟蹤算法。通過對特征點模型、特征點匹配方法和特征點與目標(biāo)位置關(guān)系的研究,利用相鄰兩幀之間目標(biāo)與周圍特征點的位置關(guān)系對目標(biāo)的位置進行初步定位,然后以該位置為搜索起點,結(jié)合粒子濾波和均值偏移方法獲取目標(biāo)的候選區(qū)域,zui后根據(jù)候選區(qū)域和位置的距離對候選區(qū)域的相似度加權(quán),將加權(quán)后相似度zui高的候選區(qū)域作為跟蹤結(jié)果。實驗結(jié)果表明,結(jié)合局部背景特征定位的跟蹤算法具有更好地跟蹤效果,并且滿足實時性的要求。(4)提出了基于貝葉斯網(wǎng)絡(luò)的人機交互狀態(tài)識別方法,使機器人能夠及時識別交互狀態(tài)的變化,提前做好準(zhǔn)備來改善交互體驗。首先,建立人機交互狀態(tài)遷移模型并定義了交互狀態(tài)遷移條件,得到人機交互狀態(tài)的計算方法;然后建立基于人臉朝向和人臉運動信息的交互趨勢貝葉斯網(wǎng)絡(luò)模型。對人臉朝向狀態(tài)節(jié)點、運動狀態(tài)節(jié)點的動態(tài)狀態(tài)概率計算方法進行了研究后,根據(jù)貝葉斯網(wǎng)絡(luò)推理方法得到交互趨勢的狀態(tài)概率;zui后研究了人機交互狀態(tài)遷移模型所需的人臉和運動等特征數(shù)據(jù)的獲取方法。通過對人機交互狀態(tài)識別的研究,為下文的人機交互系統(tǒng)框架在感知方面的應(yīng)用做了準(zhǔn)備。(5)提出了面向用戶編程的服務(wù)機器人人機交互系統(tǒng)框架,實現(xiàn)由用戶編寫交互知識的方式更新機器人的交互功能。首先,提出了基于抽象環(huán)境的人機交互軟件體系結(jié)構(gòu),對體系結(jié)構(gòu)的組成和抽象環(huán)境的運行機制進行了研究。然后,在該體系結(jié)構(gòu)的基礎(chǔ)上設(shè)計基于交互知識的場景文件及其解析器,并研發(fā)了面向用戶編程的機器人交互功能開發(fā)平臺。zui后,研發(fā)了實驗平臺,對用戶更新機器人功能以及人機交互狀態(tài)識別的算法進行了實驗驗證。結(jié)果表明,平臺所提供的交互狀態(tài)識別結(jié)果符合實際交互狀態(tài)的變化,用戶能夠通過編輯交互知識的方式更新機器人的功能。
免責(zé)聲明
- 凡本網(wǎng)注明"來源:智能制造網(wǎng)"的所有作品,版權(quán)均屬于智能制造網(wǎng),轉(zhuǎn)載請必須注明智能制造網(wǎng),http://m.decaoba.com。違反者本網(wǎng)將追究相關(guān)法律責(zé)任。
- 企業(yè)發(fā)布的公司新聞、技術(shù)文章、資料下載等內(nèi)容,如涉及侵權(quán)、違規(guī)遭投訴的,一律由發(fā)布企業(yè)自行承擔(dān)責(zé)任,本網(wǎng)有權(quán)刪除內(nèi)容并追溯責(zé)任。
- 本網(wǎng)轉(zhuǎn)載并注明自其它來源的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或證實其內(nèi)容的真實性,不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個人從本網(wǎng)轉(zhuǎn)載時,必須保留本網(wǎng)注明的作品來源,并自負版權(quán)等法律責(zé)任。
- 如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
2026杭州國際人形機器人與機器人技術(shù)展覽會
展會城市:杭州市展會時間:2026-05-14