除 Roomba 之外的家庭机器人的广泛采用受到多种因素的阻碍,包括成本、实用性、设计和地图环境的挑战。即使这些问题得到部分解决,故障仍然会发生,并且由于难以纠正这些系统所犯的错误而变得更糟。虽然主要组织有能力处理此类问题,但期望消费者付费让专业人员进行调试或成为程序员是不现实的。但正如麻省理工学院最近的研究表明,大型语言模型(LLM)提供了一种可能的方法。
国际学习表征会议 (ICLR) 即将发表的一篇论文 寻求将机器人与一定程度的“常识”集成,以便它们能够自主进行纠正。根据这项研究,机器人可以复制人类的行为,但除非它们经过适当的训练来处理所有可能的障碍,否则它们很难适应意外的变化,并且经常从头开始执行任务。
这项研究引起了人们对机器人模仿学习的缺点的关注,特别是在动态的家庭环境中,即使很小的变化也可能导致系统重置。通过将活动分解为更小的组件,麻省理工学院的研究提出了一种革命性的方法,可以使纠正变得更容易,并且无需程序员手动干预。 这是由法学硕士实现的,法学硕士通过用通用语言提供分步说明来弥合人类演示和机器人理解之间的差距。这使得机器人能够识别自己的任务阶段并自行做出必要的调整。
该研究使用了一个经过训练来舀和倒弹珠的机器人,阐述了这个想法,并展示了法学硕士如何让机器人在被故意打断后进行自我纠正。这种方法通过大大减少故障期间对人工编程或干预的需求,为机器人技术中持续存在的问题提供了有效的解决方案。
在不中断您职业生涯的情况下提升技能!加入 Code Labs Academy 的在线兼职 数据科学和 AI 训练营,获得编码和数据分析方面的实用技能。向行业专家学习、构建真实项目并为数据驱动的职业做好准备——一切都在您的日程安排中!