需要注意的是,有時選擇的示教方法和獲取的數據類型與學習算法的選擇有關。一方面來自多個模態的示范增加了維數,增加了學習的復雜性。數據的維數可以降低,但是有些信息被忽略,導致從示教數據中學習不當。另一方面,缺少傳感模態可能會在一開始就提供不完整的信息,導致學習算法表現不理想。
GJ技能可以認為是一組低J技能或一組動作基元。除此之外,GJ技能還包括對象可視性,涉及構建物理世界對象和機器人動作之間關系的知識。GJ技能學習方法可以大致分為學習計劃和學習目標。
1)學習計劃:在這種GJ技能的學習方法中,學習計劃為從初始狀態到終狀態的一系列動作。因此,動作是根據前置條件和后置條件定義的。前置條件為動作執行前的狀態,后置條件為動作執行后的狀態。除此之外,人類教師還用注釋的形式提供附加信息。注釋可以通過觸覺、視覺或語義來提供。額外的信息允許更好地概括G水平的技能?蓤绦械膭幼骺梢允呛唵蔚牡蚃技能,如抓住目標對象,拾起綠色的對象等,組合起來形成一個GJ任務,如排序綠色的對象。另一方面,有一些方法可以通過在示教數據中尋找重復的結構來從GJ技能示教中提取低J技能,這樣就可以在不同的示教中識別它。在[2]中,一個示教學習范例是通過人類示教和在程序界面輸入的用戶目的來描述的。在[18]中,一些涉及一系列順序旋轉和轉換的日常對象操作的示教被用來提取順序的低J技能,并進一步構建一個計劃。這項工作還示教了從一個對象到其他類似對象的學習知識轉移。
2)學習目標:推斷GJ技能的目標。人類教師提供的示教被用來推斷執行GJ技能的意圖。通過生成假設,可以從重復的示教中推斷出目標。現代方法也使用基于獎勵函數的強化學習方法來實現期望目標。如果獎勵函數是從給定的示教中學習的,那么它就被認為是目標學習。一些基于強化學習的方法得到了很好的研究[19]。
3、討論總結
技能的學習直接依賴于示教的準確性。大多數方法[20]手動消除了部分示教中的噪聲。結合強化學習,在獎勵和探索機制的基礎上對技能學習進行改進。另一種改進技能的方法涉及示教者反饋[21]。當機器人在一個稍微不熟悉的情況下執行學習到的技能時,從人類教師那里得到關于執行技能可取性的反饋。目前為了實現這種技能細化的方法,研究人員主要從兩個方面進行了研究:(1)控制機器人和人類教師之間的信息交互,(2)提供反饋。
| 資料獲取 | |
智能教育機器人功能介紹 |
|
| 新聞資訊 | |
| == 資訊 == | |
| » 機器人的感覺順序與策略:變換,處理 | |
| » 機器人多指靈巧手的神經控制的原理:控制系 | |
| » 機器人自適應模糊控制: PID 模糊控制 | |
| » 機器人的進化控制系統:解決其學習與適應能 | |
| » 機器人的神經控制系統特性和能力:并行處理 | |
| » 機器人的學習控制系統:搜索、識別、記憶和 | |
| » 機器人的模糊控制系統:模糊化接口、知識庫 | |
| » “人工智能+制造”專項行動實施意見:10 | |
| » 機器人的專家控制系統:知識庫、推理機、控 | |
| » 智能機器人的遞階控制系統:精度隨智能降低 | |
| » 機器人的力和位置混合控制方案:主動剛性控 | |
| » 機器人的多關節位置控制器:各關節間的耦合 | |
| » 機器人的單關節位置控制器:光學編碼器與測 | |
| » 機器人位置控制基本控制結構:關節空間控制 | |
| » 機器人的液壓伺服控制系統的優勢:結構簡單 | |
| == 機器人推薦 == | |
服務機器人(迎賓、講解、導診...) |
|
智能消毒機器人 |
|
機器人底盤 |
![]() |