机器人领域的一个长期挑战是赋予机器人自我意识——理解自身的身体、能力以及行动如何影响环境。传统的机器人控制依赖精确的建模、复杂的传感器阵列和精心编程的指令。然而,麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员最近取得了突破性进展,开发了一种名为神经雅可比场(NJF)的基于视觉的系统,使机器人能够通过视觉获得“身体自我意识”,从而消除了对复杂传感器或预编程控制参数的需求。
这种创新方法模仿了人类如何发展对自身身体的直觉理解。随着我们的成长,我们学会了如何移动肢体、如何用多大的力气抓住物体,以及如何对不同的指令做出反应——所有这些都是通过视觉反馈实现的。NJF系统复制了这一过程,使机器人能够仅通过观察自身运动来学习控制自身。正如项目的关键研究人员李博士所解释的那样:“就像人类发展出对自身身体运动和对指令反应的直觉理解一样,NJF通过视觉使机器人获得了这种身体自我意识。”这种理解不仅仅是学术上的;它是灵活操作和控制在现实世界复杂且不可预测的环境中的关键基础。该系统已经在多种机器人平台上展示了其多功能性,包括柔性机器人手和刚性3D打印机械臂,在运动精度方面取得了令人惊讶的成果。
NJF系统的核心在于其依赖单一摄像头。与依赖多种传感器(测量关节角度、力和位置)的传统机器人系统不同,NJF从视觉数据中提取所有必要的信息。这种简化是一个重大优势,降低了机器人系统的成本和复杂性。AI组件然后分析视觉数据,学习将机器人的运动与其视野中的相应变化相关联。这使得机器人能够在没有显式编程的情况下,建立自身身体和与环境互动的内部模型。这种“通过观察学习”的方法对柔性机器人尤为重要,由于其固有的柔性,这些机器人在数学建模方面一直难以捉摸。能够在不依赖精确模型的情况下控制这些机器人,为精细任务(如手术程序或处理易碎物品)开辟了令人兴奋的可能性。此外,系统的适应性不仅限于初始训练阶段;机器人可以在遇到新情况时继续完善其控制策略,并从经验中学习。
除了对机器人学的直接影响,这一研究还突显了更广泛的趋势,即朝着更直觉和适应性强的人工智能系统发展。NJF的发展与计算机视觉和深度学习的进步相一致,展示了这些技术在人工智能和身体智能之间架起桥梁的力量。NJF背后的原理也在其他领域找到了应用,例如自主无人机控制,其中保持稳定性和在不确定环境中导航需要对无人机自身状态和周围环境的稳健理解。MIT研究人员还在探索类似基于视觉的系统如何用于分析行人行为,为城市设计提供信息,并创造更具响应性的公共空间。NJF的成功也建立在3D打印等领域的早期工作之上,其中基于计算机视觉的系统已经加速了生产时间并增强了多功能性。这些不同领域之间的潜在协同效应表明,AI驱动的视觉系统在广泛的技术应用中将发挥越来越重要的作用。
本质上,MIT的NJF系统代表了创造机器人迈向一个重要的里程碑——这些机器人不仅仅是被编程执行任务,而是能够理解自身并适应环境的能力,这种能力更接近人类智能。通过视觉赋予机器人自我意识,研究人员开辟了一个新的灵活性和控制水平,为机器人能够无缝融入我们的生活并帮助我们完成越来越复杂和具有挑战性的任务铺平了道路。这不是关于创造能够像人类一样思考的机器人,而是关于创造能够以一种以前无法实现的直觉和适应性行动的机器人。
发表回复