近日,依托于中國(guó)科學(xué)院沈陽(yáng)自動(dòng)化研究所的機(jī)器人學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室提出了一種連續(xù)多視角任務(wù)學(xué)習(xí)算法,可有效解決現(xiàn)存大部分多視角任務(wù)學(xué)習(xí)模型不能夠滿(mǎn)足讓機(jī)器人快速學(xué)習(xí)新任務(wù)的問(wèn)題。
目前,多視角多任務(wù)學(xué)習(xí)在機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)領(lǐng)域得到了廣泛的應(yīng)用,然而在諸多實(shí)際場(chǎng)景中,當(dāng)多視角學(xué)習(xí)任務(wù)按序列順序到來(lái)時(shí),重新訓(xùn)練以前的任務(wù)在這種終身學(xué)習(xí)場(chǎng)景中會(huì)產(chǎn)生較高的存儲(chǔ)需求和計(jì)算成本。
為應(yīng)對(duì)這一挑戰(zhàn),科研人員在該研究中提出了一種集成了深度矩陣分解和稀疏子空間學(xué)習(xí)的連續(xù)多視角任務(wù)學(xué)習(xí)模型,稱(chēng)之為深度連續(xù)多視角任務(wù)學(xué)習(xí)(DCMvTL)。當(dāng)新的多視角任務(wù)到來(lái)時(shí),首先采用深度矩陣分解技術(shù)捕捉新任務(wù)中的隱含和分層表達(dá)知識(shí),同時(shí)以一種逐層的方式存儲(chǔ)這些新鮮的多視角知識(shí)。在這一基礎(chǔ)上,稀疏子空間學(xué)習(xí)模型會(huì)應(yīng)用于每一層抽取的因子矩陣上,并通過(guò)一個(gè)自表達(dá)約束捕獲跨視角關(guān)聯(lián)。
在基準(zhǔn)測(cè)試數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,深度連續(xù)多視角任務(wù)學(xué)習(xí)模型不僅能實(shí)現(xiàn)較高的認(rèn)知準(zhǔn)確率,同時(shí)能保持較高的學(xué)習(xí)效率,即讓機(jī)器人“更快”認(rèn)知不同的世界。
相關(guān)成果以Continual Multiview Task Learning via Deep Matrix Factorization為題發(fā)表于IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS。該研究得到了國(guó)家自然科學(xué)基金和機(jī)器人學(xué)重點(diǎn)實(shí)驗(yàn)室的支持。
DOI: 10.1109/TNNLS.2020.2977497