仿生自我学习机器人-ailab.ppt

  1. 1、本文档共9页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
仿生自我学习机器人-ailab

仿生自我學習機器人 2008.03.25 (花花 韋安 趕快還書 27號到期) Introduction 讓機器人更像人,必須讓機器人瞭解語 言的意思,研究語言在機器人世界中的 感知,與之結合。在當下的情況下接收 句子,分析當下場面與語言,轉而成為 資訊,進而學習。 Introduction 然而,完全沒有預先知識學習是不可能的 我們先參考語言學習的五個問題: Introduction 我們彙整以上五個問題,提出三項主要注意方針: 1)word-grounding (詞著陸)沒有預先知識去引導。 2)音像與視覺輸入是直接接收環境資料,有可能是殘缺不全與噪音。 3)名字與他的屬性有關,譬如顏色形狀大小(參考不確定性)。 Our approach 讓機器人在變動的環境下達到自治學習的目標,與前人的工作有三個相異點: 1)機器人學從視覺音像中自動學習,而非從準備資料(prepared data)當作訓練資料(training data)。他使用對講話的詞關於對象的屬性和對應的視覺出現。再者,音像與視覺輸入適當的分離與結合有助於減少學習資料。 Our approach 2)自我組織成長的類神經網路,我們叫做:adaptive neural gas (ANG) 根本問題在如何學習新資訊而沒有錯誤應用語言文法與忘記早先的知識。我們在初期的學習不使用標記資料,他獲取新的能力不與先前的所學衝突。 Our approach 3)我們介紹機器知道的一個交互方法,機器人將判斷是否有足夠的資訊學會詞彙或動作,(慾望為知識,稍後介紹)如果缺乏資訊,機器人將尋找適當對象向他抓取。多數的learning-based系統是被動的行動,簡單的做你所告訴他們該做的事。 IKR1:A humanoid robot for learning 本文根據上部軀幹類人動物機器人告訴的IKR1 。它有一個可移動的頭以二個自由程度(DOFs) 並且與功能作為它的眼睛的立體聲顏色照相機。相應地, 它可能勘測它的工作區。工作區包括一部分的桌在機器人之前。 包括機器人可能掌握對象的被舉起的區域。它並且有二條胳膊與抓爪(5 DOFs 在各邊), 使它操作對象在被舉起的區域。IKR1‘s 工作區凌亂用不同的種類對象: 玩具、文具、小紙, 工具, 等。這些對象變化在顏色、形狀, 和大小(參見圖2) 。一個人的坐橫跨桌從IKR1 執行簡單的交談。首先, IKR1 知道關於在工作區對象的概念。概念聯繫了對象是他們的顏色、形狀, 和名字資訊。各個概念包括二份: 1) 它的話語和2) 它的視覺表示法。在學習的階段的開始, 機器人初始化它的精神模型和致力它的對工作區的注意, 是與它的夥伴分享。夥伴說出詞當指向對象。機器人意識到, 音像輸入被給了, 然後通過資料對speech-processing 模塊為認識。由輸入資料與詞模板比較, IKR1 可能區別是否當前的詞屬於現有的詞性。如果它意識到詞屬於現有的種類。 它使用那類的資訊, 否則它創造一塊新詞模板。同時, 視覺小河被奪取從立體聲電荷藕合的設備(CCD) 照相機。圖像處理的模塊應付這些視覺信號過濾噪聲, 反對分割。各個對象的顏色和形狀資訊從預先處理的視覺資料然後被提取。他們的組合使用代表那種對象。通過這樣過程, IKR1 學會詞的意思通過視聽對序列。 * multiword utterances referential uncertainty(不確定性) Bootstrapping(引導) Noise(噪音) Homonymy (同音異義) 機器人可以辨認,並靈活的操縱物品 各種物品有不同的形狀大小顏色 *

您可能关注的文档

文档评论(0)

ailuojue + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档