可以自学的四足机器人,可以在3.5小时内学会走路!
最近,Google的最新研究可能会简化此学习过程。来自Google,加利福尼亚大学伯克利分校和乔治亚理工学院的研究人员联合发表了一篇论文,以构建一个四足机器人,该机器人通过AI自行行走,并将其命名为“ RainbowDash”。
RainbowDash可以完全独立地向前和向后行走,并且在短短几个小时内即可左右旋转。研究人员对该系统进行了测试,以学习如何在三种不同的地形上行走:平坦的地面,柔软的床垫和有缝隙的门垫。
根据论文中的测试数据,RainbowDash需要花费1.5个小时来学习在坚硬平坦的地面上行走,在用记忆泡沫制成的床垫上花费约5.5个小时,在空心地毯上花费约4.5个小时。总结一下:RainbowDash平均只需要大约3.5个小时就可以学习向前,向后和从左到右的转弯动作。
根据世界纪录,从爬行到学习走路最快的婴儿是6个月。具体来说,RainbowDash结合了两种不同类型的AI技术,即深度学习和强化学习。
通过深度学习,系统可以处理和评估来自其环境的原始输入数据;通过强化学习,该算法可以通过反复试验来学习如何执行任务,并根据完成的程度获得奖惩。换句话说,通过上述方法,机器人可以在其不了解的环境中实现自动控制策略。
在以前的此类实验中,研究人员最初是让机器人通过模拟来学习现实环境。在模拟环境中,机器人的虚拟主体首先与虚拟环境进行交互。
然后,该算法接收这些虚拟数据。在系统能够处理数据之前,将具有系统物理形式的机器人放置在实际环境中进行实验。
。这种方法有助于避免在反复试验中损坏机器人及其周围环境。
但是,尽管环境易于建模,但通常需要很长时间,并且实际环境中充满了意外情况。因此,在模拟环境中训练机器人的重要性受到限制。
毕竟,此类研究的最终目标恰恰是为现实世界中的场景准备机器人。谷歌,乔治亚理工学院和加州大学伯克利分校的研究人员从一开始就在实际环境中训练了Rainbow Dash。
这样,机器人不仅可以很好地适应其环境,而且可以更好地适应类似的环境。尽管研究团队将RainbowDash的学习能力归因于其自身,但是人为干预仍然在实现这一目标中起着重要作用。
例如,研究人员必须创建一个边界,机器人可以在该边界内学习走路,以防止机器人离开该区域。他们还必须设计特定的算法来防止机器人摔倒,其中一些算法着重于限制机器人的运动。
为了防止诸如坠落损坏之类的事故,通常在数字环境中进行机器人强化学习,然后将算法传输到物理机器人以维护其安全性。据报道,研究人员希望他们的算法可以应用于不同类型的机器人,或适合于多个机器人在同一环境中同时学习。
研究人员认为,破解机器人的运动能力将是解锁更实用的机器人的关键。最后,输入论文下载地址:https://arxiv.org/pdf/2002.08550.pdf -END-猜猜您喜欢它。
现场出现了真人,微信视频账号的第一个视频在这里! & lt;& lt;在此处戳戳机器人如何成群生活? & lt;& lt;在此处戳一下,可以使您深入而又简单地学习STM32。 <& lt;在此处戳& nbsp;最后& nbsp;& nbsp; & nbsp;如果您认为本文不错,那么转发和共享也是我们继续更新的动力。
5T资源正在销售中!包括但不限于:C / C ++,Linux,Python,Java,PHP,人工智能,PCB,FPGA,DSP,labview,微控制器等!回复“更多资源”在官方帐户中,您可以免费获得它,并期待您的关注〜长按识别图片中的QR码关注。
RainbowDash可以完全独立地向前和向后行走,并且在短短几个小时内即可左右旋转。研究人员对该系统进行了测试,以学习如何在三种不同的地形上行走:平坦的地面,柔软的床垫和有缝隙的门垫。
根据论文中的测试数据,RainbowDash需要花费1.5个小时来学习在坚硬平坦的地面上行走,在用记忆泡沫制成的床垫上花费约5.5个小时,在空心地毯上花费约4.5个小时。总结一下:RainbowDash平均只需要大约3.5个小时就可以学习向前,向后和从左到右的转弯动作。
根据世界纪录,从爬行到学习走路最快的婴儿是6个月。具体来说,RainbowDash结合了两种不同类型的AI技术,即深度学习和强化学习。
通过深度学习,系统可以处理和评估来自其环境的原始输入数据;通过强化学习,该算法可以通过反复试验来学习如何执行任务,并根据完成的程度获得奖惩。换句话说,通过上述方法,机器人可以在其不了解的环境中实现自动控制策略。
在以前的此类实验中,研究人员最初是让机器人通过模拟来学习现实环境。在模拟环境中,机器人的虚拟主体首先与虚拟环境进行交互。
然后,该算法接收这些虚拟数据。在系统能够处理数据之前,将具有系统物理形式的机器人放置在实际环境中进行实验。
。这种方法有助于避免在反复试验中损坏机器人及其周围环境。
但是,尽管环境易于建模,但通常需要很长时间,并且实际环境中充满了意外情况。因此,在模拟环境中训练机器人的重要性受到限制。
毕竟,此类研究的最终目标恰恰是为现实世界中的场景准备机器人。谷歌,乔治亚理工学院和加州大学伯克利分校的研究人员从一开始就在实际环境中训练了Rainbow Dash。
这样,机器人不仅可以很好地适应其环境,而且可以更好地适应类似的环境。尽管研究团队将RainbowDash的学习能力归因于其自身,但是人为干预仍然在实现这一目标中起着重要作用。
例如,研究人员必须创建一个边界,机器人可以在该边界内学习走路,以防止机器人离开该区域。他们还必须设计特定的算法来防止机器人摔倒,其中一些算法着重于限制机器人的运动。
为了防止诸如坠落损坏之类的事故,通常在数字环境中进行机器人强化学习,然后将算法传输到物理机器人以维护其安全性。据报道,研究人员希望他们的算法可以应用于不同类型的机器人,或适合于多个机器人在同一环境中同时学习。
研究人员认为,破解机器人的运动能力将是解锁更实用的机器人的关键。最后,输入论文下载地址:https://arxiv.org/pdf/2002.08550.pdf -END-猜猜您喜欢它。
现场出现了真人,微信视频账号的第一个视频在这里! & lt;& lt;在此处戳戳机器人如何成群生活? & lt;& lt;在此处戳一下,可以使您深入而又简单地学习STM32。 <& lt;在此处戳& nbsp;最后& nbsp;& nbsp; & nbsp;如果您认为本文不错,那么转发和共享也是我们继续更新的动力。
5T资源正在销售中!包括但不限于:C / C ++,Linux,Python,Java,PHP,人工智能,PCB,FPGA,DSP,labview,微控制器等!回复“更多资源”在官方帐户中,您可以免费获得它,并期待您的关注〜长按识别图片中的QR码关注。